کارشناسان می گویند ربات چت بینگ عصبانی فقط از انسان تقلید می کند
تحلیلگران و دانشگاهیان روز جمعه گفتند که چت ربات بینگ تازه تاسیس مایکروسافت احتمالاً آزمایشی یا حتی تهدیدآمیز خواهد بود زیرا اساساً آنچه را که از مکالمات آنلاین آموخته است تقلید می کند.
داستانهای مبادلات نگرانکننده با چت ربات هوش مصنوعی (AI) – از جمله تهدید و صحبت در مورد تمایل به سرقت کد هستهای، ایجاد یک ویروس کشنده یا زنده ماندن – این هفته ویروسی شده است.
گراهام نوبیگ، دانشیار موسسه فناوری زبان دانشگاه کارنگی ملون، می گوید: «من فکر می کنم اساساً مکالماتی را که به صورت آنلاین دیده می شوند تقلید می کند.
“بنابراین هنگامی که مکالمه تغییر کند، او احتمالاً در آن حالت عصبانی می ماند یا می گوید “دوستت دارم” و مواردی از این قبیل، زیرا اینها همه چیزهایی هستند که قبلاً آنلاین بوده اند.”
یک ربات چت، بر اساس طراحی، کلماتی را ارائه میکند که پیشبینی میکند محتملترین پاسخها بدون درک معنا یا زمینه هستند.
با این حال، افرادی که با برنامهها شوخی میکنند، به طور طبیعی تمایل دارند که احساسات و نیت را در آنچه ربات چت میگوید بخوانند.
برنامه نویس Simon Willison در یک پست وبلاگ گفت: “مدل های زبان بزرگ هیچ مفهومی از “حقیقت” ندارند – آنها فقط می دانند چگونه بهترین جمله را به گونه ای کامل کنند که از نظر آماری بر اساس ورودی و مجموعه آموزشی آنها محتمل است.”
بنابراین آنها چیزهایی را می سازند و سپس با اطمینان کامل بیان می کنند.
Laurent Daudet، یکی از بنیانگذاران شرکت هوش مصنوعی فرانسوی LightOn، این نظریه را مطرح می کند که چت بات که به نظر ناپدید شده است، در مبادلاتی آموزش دیده است که خود تهاجمی یا ناسازگار شده اند.
دودت به خبرگزاری فرانسه گفت: «حل این مسئله به تلاش و بازخورد بسیار انسانی نیاز دارد، به همین دلیل است که ما تصمیم گرفتهایم فعلاً خودمان را به کاربردهای تجاری محدود کنیم تا بیشتر به موارد محاورهای.
– “خارج از ریل” –
ربات چت بینگ توسط مایکروسافت و استارت آپ OpenAI طراحی شده است که از زمان راه اندازی ChatGPT در نوامبر، اپلیکیشنی سرفصل که قادر است هر نوع محتوای نوشته شده را در چند ثانیه با یک درخواست ساده تولید کند، موجی ایجاد کرده است.
از زمانی که ChatGPT وارد صحنه شد، فناوری پشت آن، که به عنوان هوش مصنوعی مولد شناخته می شود، جذابیت و نگرانی ایجاد کرده است.
مایکروسافت در یک پست وبلاگی با اشاره به اینکه ربات در حال کار است، گفت: «مدل گاهی اوقات تلاش میکند تا به لحنی که از آن خواسته میشود پاسخ دهد یا بازتاب دهد، که ممکن است منجر به سبکی شود که ما قصد نداشتیم.» پیش رفتن.
چت بات بینگ در برخی از صرافی های مشترک گفت که در طول توسعه با اسم رمز “سیدنی” و قوانین رفتاری به آن داده شده است.
طبق پستهای آنلاین، این قوانین شامل «پاسخهای سیدنی باید مثبت، جالب، خندهدار و جذاب باشد».
به گفته ویلیسون، گفتوگوی هولناک، که ترکیبی از تهدیدهای پولادین و اعلانهای عشق است، ممکن است ناشی از دستورات دوئل باشد تا مثبت بماند و در عین حال تقلید از آنچه هوش مصنوعی از مبادلات انسانی به دست میآورد.
یورام وورمسر، تحلیلگر اصلی eMarketer به خبرگزاری فرانسه گفت: به نظر می رسد چت بات ها در طول مکالمات طولانی بیشتر مستعد پاسخ های ناخوشایند یا عجیب هستند و حس اینکه مبادله به کجا می رود را از دست می دهند.
وورمسر گفت: «آنها واقعاً می توانند از ریل خارج شوند.
این بسیار واقع گرایانه است زیرا (ربات چت) در پیش بینی کلمات بعدی بسیار خوب عمل می کند که به نظر می رسد احساساتی دارد یا به آن ویژگی های انسانی می دهد. اما هنوز هم اینها نتایج آماری هستند.
مایکروسافت روز جمعه اعلام کرد که تعداد مکالمات رفت و برگشتی با ربات چت خود را برای یک سوال محدود کرده است زیرا “جلسات چت بسیار طولانی می تواند مدل اصلی چت را در بینگ جدید اشتباه بگیرد.”