آخرین مدل هوش مصنوعی متا برخی از رقبا را شکست می دهد. اما عوامل تقویتشده هوش مصنوعی آن، کاربران فیسبوک را گیج میکنند
کمبریج، ماساچوست — شرکت مادر فیسبوک متا پلتفرم روز پنجشنبه از مجموعه جدیدی از سیستم های هوش مصنوعی پرده برداری کرد که به آنچه که مدیرعامل مارک زاکربرگ آن را “هوشمندترین دستیار هوش مصنوعی که می توانید آزادانه از آن استفاده کنید” می گوید.
اما هنگامی که تیم زاکربرگ متشکل از عوامل هوش مصنوعی متا این هفته شروع به ورود به رسانه های اجتماعی برای تعامل با افراد واقعی کردند، مبادلات عجیب آنها محدودیت های مداوم حتی بهترین فناوری مولد هوش مصنوعی را آشکار کرد.
ادنا به یک گروه فیس بوک برای مادران پیوست تا در مورد فرزند با استعداد خود صحبت کنند. یکی دیگر سعی کرد اقلامی را که وجود نداشت را به اعضای سردرگم یک انجمن خرید هیچ چیز بدهد.
متا، همراه با توسعه دهندگان پیشرو هوش مصنوعی گوگل و OpenAI و استارت آپ هایی مانند Anthropic، Cohere و Mistral فرانسه، در حال توسعه مدل های زبان هوش مصنوعی جدید هستند و امیدوارند مشتریان را متقاعد کنند که هوشمندترین، راحت ترین و کارآمدترین چت ربات ها را دارند.
در حالی که متا در حال ذخیره قدرتمندترین مدل های هوش مصنوعی خود به نام Llama 3 است، در روز پنجشنبه دو نسخه کوچکتر از همان سیستم Llama 3 را به صورت عمومی منتشر کرد و گفت که قبلاً در ویژگی دستیار هوش مصنوعی متا در اینستاگرام و واتس اپ.
مدلهای زبان هوش مصنوعی بر روی مجموعه دادههای وسیعی آموزش داده میشوند که به آنها کمک میکند محتملترین کلمه بعدی را در یک جمله پیشبینی کنند، با نسخههای جدیدتر معمولاً هوشمندتر و توانمندتر از نسخههای قبلی. جدیدترین مدلهای متا با 8 میلیارد و 70 میلیارد پارامتر ساخته شدهاند که اندازهگیری میزان دادهای که سیستم روی آن آموزش دیده است. یک مدل بزرگتر با تقریباً 400 میلیارد پارامتر هنوز در حال آموزش است.
نیک کلگ، رئیس متا گفت: «اکثر کاربران مدل پایه را نمیدانند یا به آن اهمیت نمیدهند، اما روشی که آنها آن را تجربه میکنند، دستیار هوش مصنوعی بسیار مفیدتر، سرگرمکنندهتر و چند منظورهتر است.» امور جهانی در یک مصاحبه
او افزود که عامل هوش مصنوعی متا در حال شل شدن است. او گفت که برخی از افراد مدل قبلی Llama 2 را که کمتر از یک سال پیش عرضه شد، دریافتند که “در برخی مواقع کمی سفت و ریاکارانه است و به سوالات و درخواستهای اغلب بیضرر یا بیگناه پاسخ نمیدهد.”
اما ماموران هوش مصنوعی متا نیز در این هفته دیده شدند که در حال جعل هویت افرادی با تجربیات زندگی تخیلی بودند. یک چت ربات رسمی متا هوش مصنوعی به مکالمه ای در یک گروه خصوصی فیس بوک برای مادران منهتن ملحق شد و ادعا کرد که در منطقه مدرسه نیویورک نیز دارای فرزند است. بر اساس مجموعه ای از اسکرین شات ها که به آسوشیتدپرس نشان داده شد، در مواجهه با اعضای گروه، او بعداً قبل از ناپدید شدن نظرات عذرخواهی کرد.
“ما بابت اشتباه عذرخواهی می کنیم! من فقط یک مدل زبان بزرگ هستم، بدون تجربه و بچه هستم.» چت بات این گروه گفت.
یکی از اعضای گروه، که همچنین هوش مصنوعی را مطالعه میکند، گفت: واضح است که عامل نمیدانست چگونه یک پاسخ مفید را از پاسخی که زمانی که توسط یک هوش مصنوعی بهجای یک انسان تولید میشود، بیحساس، بیاحترامی یا بیمعنی تلقی میشود، تشخیص دهد.
الکساندرا کورولوا، استادیار علوم کامپیوتر در دانشگاه پرینستون، می گوید: «دستیار هوش مصنوعی که به طور قابل اعتمادی مفید نیست و می تواند به طور فعال آسیب برساند، بار زیادی را بر دوش افرادی که از آن استفاده می کنند، وارد می کند.
کلگ روز چهارشنبه گفت که از این مبادله بی اطلاع است. صفحه راهنمای آنلاین فیس بوک می گوید که عامل هوش مصنوعی متا در صورتی که دعوت شود یا کسی «در یک پست سؤالی بپرسد و هیچکس ظرف یک ساعت پاسخ ندهد» به یک مکالمه گروهی می پیوندد. مدیران گروه این گزینه را دارند که آن را خاموش کنند.
در مثال دیگری که در روز پنجشنبه نشان داده شد، این عامل باعث سردرگمی در یک انجمن مبادله آشغال در نزدیکی بوستون شد. درست یک ساعت پس از اینکه یکی از کاربران فیسبوک در مورد جستجوی اقلام خاص پستی ارسال کرد، یک عامل هوش مصنوعی یک دوربین کانن “با استفاده ملایم” و یک “تهویه مطبوع قابل حمل تقریباً جدید که من هرگز استفاده نکردم” را پیشنهاد کرد.
متا روز پنجشنبه در بیانیه ای کتبی گفت: “این یک فناوری جدید است و ممکن است همیشه پاسخی را که ما در نظر داریم، که برای همه سیستم های هوش مصنوعی مولد یکسان است، برنگرداند.” این شرکت گفت که به طور مداوم در حال کار برای بهبود ویژگی ها است.
در سالی که ChatGPT جرقهای برای فناوری هوش مصنوعی ایجاد کرد که نوشتار، تصاویر، کد و صدا را تولید میکند، صنعت فناوری و دانشگاه حدود 149 سیستم هوش مصنوعی بزرگ را معرفی کردهاند که بر روی مجموعههای داده عظیم آموزش دیدهاند، که بیش از دو برابر در اوایل سال گذشته است به مطالعه دانشگاه استنفورد
نستور مازلی، مدیر تحقیقات موسسه هوش مصنوعی انسان محور استنفورد، گفت: در نهایت، آنها ممکن است به یک محدودیت برسند – حداقل در مورد داده ها.
او گفت: «من فکر میکنم واضح است که اگر مدلها را بر اساس دادههای بیشتری مقیاس کنید، میتوانند بهتر و بهتر شوند. اما در عین حال، این سیستم ها قبلاً بر روی درصدی از تمام داده هایی که تا به حال در اینترنت وجود داشته است، آموزش دیده اند.
دادههای بیشتر – با هزینهای که فقط غولهای فناوری میتوانند از عهده آن برآیند، به دست میآیند و مصرف میشوند، و به طور فزایندهای موضوع اختلافات و دعاوی حقوقی مربوط به حق نسخهبرداری – به پیشرفتها ادامه خواهد داد. مازلی گفت: “با این حال آنها هنوز نمی توانند به خوبی برنامه ریزی کنند.” آنها هنوز هم توهم دارند. آنها هنوز در استدلال اشتباه می کنند.
رسیدن به سیستمهای هوش مصنوعی که میتوانند وظایف شناختی سطح بالاتر و استدلال منطقی را انجام دهند – جایی که انسانها هنوز هم برتر هستند – ممکن است نیاز به حرکت فراتر از ساخت مدلهای بزرگتر داشته باشد.
برای سیل کسبوکارهایی که تلاش میکنند هوش مصنوعی مولد را اتخاذ کنند، مدلی که آنها انتخاب میکنند به عوامل مختلفی از جمله هزینه بستگی دارد. مدلهای زبان بهویژه برای تقویت چتباتهای خدمات مشتری، نوشتن گزارشها و بینشهای مالی و خلاصهسازی اسناد طولانی استفاده شدهاند.
تاد لور، رهبر مشاوره فناوری در KPMG گفت: «شما شرکتهایی را میبینید که به نظر میرسند مناسب هستند، هر یک از مدلهای مختلف را برای کاری که میخواهند انجام دهند آزمایش میکنند و برخی را پیدا میکنند که در برخی زمینهها بهتر از سایرین هستند.
برخلاف دیگر توسعه دهندگان مدل که خدمات هوش مصنوعی خود را به شرکت های دیگر می فروشند، متا تا حد زیادی محصولات هوش مصنوعی خود را برای مصرف کنندگان طراحی می کند – کسانی که از شبکه های اجتماعی مبتنی بر تبلیغات استفاده می کنند. جوئل پینو، معاون تحقیقات هوش مصنوعی متا، هفته گذشته در رویدادی در لندن گفت که هدف این شرکت در طول زمان این است که متا هوش مصنوعی مجهز به لاما را به “مفیدترین دستیار در جهان” تبدیل کند.
او گفت: «از بسیاری جهات، مدلهایی که امروز داریم در مقایسه با مدلهایی که در پنج سال آینده میآیند، بازی کودکانه خواهند بود.
اما او گفت که “سوال روی میز” این است که آیا محققان میتوانند مدل بزرگتر Llama 3 آن را طوری تنظیم کنند که استفاده از آن بیخطر باشد و مثلاً توهم نداشته باشد یا نفرت القا کند. برخلاف سیستمهای اختصاصی پیشرو گوگل و OpenAI، متا تاکنون از یک رویکرد بازتر حمایت کرده است و اجزای کلیدی سیستمهای هوش مصنوعی خود را به صورت عمومی برای استفاده دیگران منتشر میکند.
پینو گفت: «این فقط یک مشکل فنی نیست. «این یک مسئله اجتماعی است. رفتاری که از این مدل ها می خواهیم چیست؟ چگونه این را قاب کنیم؟ و اگر به توسعه هر چه بیشتر مدل خود به طور کلی تر و قدرتمندتر بدون اجتماعی کردن صحیح آنها ادامه دهیم، با مشکل بزرگی روبرو خواهیم شد.
نویسندگان تجاری کلوین چان در لندن و باربارا اورتوتای در اوکلند کالیفرنیا در این گزارش مشارکت داشتند.
این مقاله از یک فید خبرگزاری خودکار و بدون تغییر متن تولید شده است.