تکنولوژی

آخرین مدل هوش مصنوعی متا برخی از رقبا را شکست می دهد. اما عوامل تقویت‌شده هوش مصنوعی آن، کاربران فیسبوک را گیج می‌کنند

کمبریج، ماساچوست — شرکت مادر فیسبوک متا پلتفرم روز پنجشنبه از مجموعه جدیدی از سیستم های هوش مصنوعی پرده برداری کرد که به آنچه که مدیرعامل مارک زاکربرگ آن را “هوشمندترین دستیار هوش مصنوعی که می توانید آزادانه از آن استفاده کنید” می گوید.

اما هنگامی که تیم زاکربرگ متشکل از عوامل هوش مصنوعی متا این هفته شروع به ورود به رسانه های اجتماعی برای تعامل با افراد واقعی کردند، مبادلات عجیب آنها محدودیت های مداوم حتی بهترین فناوری مولد هوش مصنوعی را آشکار کرد.

ادنا به یک گروه فیس بوک برای مادران پیوست تا در مورد فرزند با استعداد خود صحبت کنند. یکی دیگر سعی کرد اقلامی را که وجود نداشت را به اعضای سردرگم یک انجمن خرید هیچ چیز بدهد.

متا، همراه با توسعه دهندگان پیشرو هوش مصنوعی گوگل و OpenAI و استارت آپ هایی مانند Anthropic، Cohere و Mistral فرانسه، در حال توسعه مدل های زبان هوش مصنوعی جدید هستند و امیدوارند مشتریان را متقاعد کنند که هوشمندترین، راحت ترین و کارآمدترین چت ربات ها را دارند.

در حالی که متا در حال ذخیره قدرتمندترین مدل های هوش مصنوعی خود به نام Llama 3 است، در روز پنجشنبه دو نسخه کوچکتر از همان سیستم Llama 3 را به صورت عمومی منتشر کرد و گفت که قبلاً در ویژگی دستیار هوش مصنوعی متا در اینستاگرام و واتس اپ.

مدل‌های زبان هوش مصنوعی بر روی مجموعه داده‌های وسیعی آموزش داده می‌شوند که به آنها کمک می‌کند محتمل‌ترین کلمه بعدی را در یک جمله پیش‌بینی کنند، با نسخه‌های جدیدتر معمولاً هوشمندتر و توانمندتر از نسخه‌های قبلی. جدیدترین مدل‌های متا با 8 میلیارد و 70 میلیارد پارامتر ساخته شده‌اند که اندازه‌گیری میزان داده‌ای که سیستم روی آن آموزش دیده است. یک مدل بزرگتر با تقریباً 400 میلیارد پارامتر هنوز در حال آموزش است.

نیک کلگ، رئیس متا گفت: «اکثر کاربران مدل پایه را نمی‌دانند یا به آن اهمیت نمی‌دهند، اما روشی که آن‌ها آن را تجربه می‌کنند، دستیار هوش مصنوعی بسیار مفیدتر، سرگرم‌کننده‌تر و چند منظوره‌تر است.» امور جهانی در یک مصاحبه

او افزود که عامل هوش مصنوعی متا در حال شل شدن است. او گفت که برخی از افراد مدل قبلی Llama 2 را که کمتر از یک سال پیش عرضه شد، دریافتند که “در برخی مواقع کمی سفت و ریاکارانه است و به سوالات و درخواست‌های اغلب بی‌ضرر یا بی‌گناه پاسخ نمی‌دهد.”

مطلب پیشنهادی:  هوش مصنوعی به هیچ وجه به هوشیاری نزدیک نیست - خطر واقعی در این است که ما چقدر به راحتی آن را انسان سازی می کنیم.

اما ماموران هوش مصنوعی متا نیز در این هفته دیده شدند که در حال جعل هویت افرادی با تجربیات زندگی تخیلی بودند. یک چت ربات رسمی متا هوش مصنوعی به مکالمه ای در یک گروه خصوصی فیس بوک برای مادران منهتن ملحق شد و ادعا کرد که در منطقه مدرسه نیویورک نیز دارای فرزند است. بر اساس مجموعه ای از اسکرین شات ها که به آسوشیتدپرس نشان داده شد، در مواجهه با اعضای گروه، او بعداً قبل از ناپدید شدن نظرات عذرخواهی کرد.

“ما بابت اشتباه عذرخواهی می کنیم! من فقط یک مدل زبان بزرگ هستم، بدون تجربه و بچه هستم.» چت بات این گروه گفت.

یکی از اعضای گروه، که همچنین هوش مصنوعی را مطالعه می‌کند، گفت: واضح است که عامل نمی‌دانست چگونه یک پاسخ مفید را از پاسخی که زمانی که توسط یک هوش مصنوعی به‌جای یک انسان تولید می‌شود، بی‌حساس، بی‌احترامی یا بی‌معنی تلقی می‌شود، تشخیص دهد.

الکساندرا کورولوا، استادیار علوم کامپیوتر در دانشگاه پرینستون، می گوید: «دستیار هوش مصنوعی که به طور قابل اعتمادی مفید نیست و می تواند به طور فعال آسیب برساند، بار زیادی را بر دوش افرادی که از آن استفاده می کنند، وارد می کند.

کلگ روز چهارشنبه گفت که از این مبادله بی اطلاع است. صفحه راهنمای آنلاین فیس بوک می گوید که عامل هوش مصنوعی متا در صورتی که دعوت شود یا کسی «در یک پست سؤالی بپرسد و هیچکس ظرف یک ساعت پاسخ ندهد» به یک مکالمه گروهی می پیوندد. مدیران گروه این گزینه را دارند که آن را خاموش کنند.

در مثال دیگری که در روز پنجشنبه نشان داده شد، این عامل باعث سردرگمی در یک انجمن مبادله آشغال در نزدیکی بوستون شد. درست یک ساعت پس از اینکه یکی از کاربران فیس‌بوک در مورد جستجوی اقلام خاص پستی ارسال کرد، یک عامل هوش مصنوعی یک دوربین کانن “با استفاده ملایم” و یک “تهویه مطبوع قابل حمل تقریباً جدید که من هرگز استفاده نکردم” را پیشنهاد کرد.

مطلب پیشنهادی:  ایتالیا ChatGPT را محدود می کند، تحقیقاتی را در مورد نگرانی های حفظ حریم خصوصی آغاز می کند

متا روز پنجشنبه در بیانیه ای کتبی گفت: “این یک فناوری جدید است و ممکن است همیشه پاسخی را که ما در نظر داریم، که برای همه سیستم های هوش مصنوعی مولد یکسان است، برنگرداند.” این شرکت گفت که به طور مداوم در حال کار برای بهبود ویژگی ها است.

در سالی که ChatGPT جرقه‌ای برای فناوری هوش مصنوعی ایجاد کرد که نوشتار، تصاویر، کد و صدا را تولید می‌کند، صنعت فناوری و دانشگاه حدود 149 سیستم هوش مصنوعی بزرگ را معرفی کرده‌اند که بر روی مجموعه‌های داده عظیم آموزش دیده‌اند، که بیش از دو برابر در اوایل سال گذشته است به مطالعه دانشگاه استنفورد

نستور مازلی، مدیر تحقیقات موسسه هوش مصنوعی انسان محور استنفورد، گفت: در نهایت، آنها ممکن است به یک محدودیت برسند – حداقل در مورد داده ها.

او گفت: «من فکر می‌کنم واضح است که اگر مدل‌ها را بر اساس داده‌های بیشتری مقیاس کنید، می‌توانند بهتر و بهتر شوند. اما در عین حال، این سیستم ها قبلاً بر روی درصدی از تمام داده هایی که تا به حال در اینترنت وجود داشته است، آموزش دیده اند.

داده‌های بیشتر – با هزینه‌ای که فقط غول‌های فناوری می‌توانند از عهده آن برآیند، به دست می‌آیند و مصرف می‌شوند، و به طور فزاینده‌ای موضوع اختلافات و دعاوی حقوقی مربوط به حق نسخه‌برداری – به پیشرفت‌ها ادامه خواهد داد. مازلی گفت: “با این حال آنها هنوز نمی توانند به خوبی برنامه ریزی کنند.” آنها هنوز هم توهم دارند. آنها هنوز در استدلال اشتباه می کنند.

رسیدن به سیستم‌های هوش مصنوعی که می‌توانند وظایف شناختی سطح بالاتر و استدلال منطقی را انجام دهند – جایی که انسان‌ها هنوز هم برتر هستند – ممکن است نیاز به حرکت فراتر از ساخت مدل‌های بزرگ‌تر داشته باشد.

برای سیل کسب‌وکارهایی که تلاش می‌کنند هوش مصنوعی مولد را اتخاذ کنند، مدلی که آنها انتخاب می‌کنند به عوامل مختلفی از جمله هزینه بستگی دارد. مدل‌های زبان به‌ویژه برای تقویت چت‌بات‌های خدمات مشتری، نوشتن گزارش‌ها و بینش‌های مالی و خلاصه‌سازی اسناد طولانی استفاده شده‌اند.

مطلب پیشنهادی:  لاکهید و ناسا از جت مافوق صوت X-59 رونمایی کردند که شکستن پنجره بوم صوتی را محدود می کند

تاد لور، رهبر مشاوره فناوری در KPMG گفت: «شما شرکت‌هایی را می‌بینید که به نظر می‌رسند مناسب هستند، هر یک از مدل‌های مختلف را برای کاری که می‌خواهند انجام دهند آزمایش می‌کنند و برخی را پیدا می‌کنند که در برخی زمینه‌ها بهتر از سایرین هستند.

برخلاف دیگر توسعه دهندگان مدل که خدمات هوش مصنوعی خود را به شرکت های دیگر می فروشند، متا تا حد زیادی محصولات هوش مصنوعی خود را برای مصرف کنندگان طراحی می کند – کسانی که از شبکه های اجتماعی مبتنی بر تبلیغات استفاده می کنند. جوئل پینو، معاون تحقیقات هوش مصنوعی متا، هفته گذشته در رویدادی در لندن گفت که هدف این شرکت در طول زمان این است که متا هوش مصنوعی مجهز به لاما را به “مفیدترین دستیار در جهان” تبدیل کند.

او گفت: «از بسیاری جهات، مدل‌هایی که امروز داریم در مقایسه با مدل‌هایی که در پنج سال آینده می‌آیند، بازی کودکانه خواهند بود.

اما او گفت که “سوال روی میز” این است که آیا محققان می‌توانند مدل بزرگ‌تر Llama 3 آن را طوری تنظیم کنند که استفاده از آن بی‌خطر باشد و مثلاً توهم نداشته باشد یا نفرت القا کند. برخلاف سیستم‌های اختصاصی پیشرو گوگل و OpenAI، متا تاکنون از یک رویکرد بازتر حمایت کرده است و اجزای کلیدی سیستم‌های هوش مصنوعی خود را به صورت عمومی برای استفاده دیگران منتشر می‌کند.

پینو گفت: «این فقط یک مشکل فنی نیست. «این یک مسئله اجتماعی است. رفتاری که از این مدل ها می خواهیم چیست؟ چگونه این را قاب کنیم؟ و اگر به توسعه هر چه بیشتر مدل خود به طور کلی تر و قدرتمندتر بدون اجتماعی کردن صحیح آنها ادامه دهیم، با مشکل بزرگی روبرو خواهیم شد.

نویسندگان تجاری کلوین چان در لندن و باربارا اورتوتای در اوکلند کالیفرنیا در این گزارش مشارکت داشتند.

این مقاله از یک فید خبرگزاری خودکار و بدون تغییر متن تولید شده است.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا