تکنولوژی

کارشناسان می گویند ربات چت بینگ عصبانی فقط از انسان تقلید می کند

تحلیلگران و دانشگاهیان روز جمعه گفتند که چت ربات بینگ تازه تاسیس مایکروسافت احتمالاً آزمایشی یا حتی تهدیدآمیز خواهد بود زیرا اساساً آنچه را که از مکالمات آنلاین آموخته است تقلید می کند.

داستان‌های مبادلات نگران‌کننده با چت ربات هوش مصنوعی (AI) – از جمله تهدید و صحبت در مورد تمایل به سرقت کد هسته‌ای، ایجاد یک ویروس کشنده یا زنده ماندن – این هفته ویروسی شده است.

گراهام نوبیگ، دانشیار موسسه فناوری زبان دانشگاه کارنگی ملون، می گوید: «من فکر می کنم اساساً مکالماتی را که به صورت آنلاین دیده می شوند تقلید می کند.

“بنابراین هنگامی که مکالمه تغییر کند، او احتمالاً در آن حالت عصبانی می ماند یا می گوید “دوستت دارم” و مواردی از این قبیل، زیرا اینها همه چیزهایی هستند که قبلاً آنلاین بوده اند.”

یک ربات چت، بر اساس طراحی، کلماتی را ارائه می‌کند که پیش‌بینی می‌کند محتمل‌ترین پاسخ‌ها بدون درک معنا یا زمینه هستند.

با این حال، افرادی که با برنامه‌ها شوخی می‌کنند، به طور طبیعی تمایل دارند که احساسات و نیت را در آنچه ربات چت می‌گوید بخوانند.

برنامه نویس Simon Willison در یک پست وبلاگ گفت: “مدل های زبان بزرگ هیچ مفهومی از “حقیقت” ندارند – آنها فقط می دانند چگونه بهترین جمله را به گونه ای کامل کنند که از نظر آماری بر اساس ورودی و مجموعه آموزشی آنها محتمل است.”

بنابراین آنها چیزهایی را می سازند و سپس با اطمینان کامل بیان می کنند.

Laurent Daudet، یکی از بنیانگذاران شرکت هوش مصنوعی فرانسوی LightOn، این نظریه را مطرح می کند که چت بات که به نظر ناپدید شده است، در مبادلاتی آموزش دیده است که خود تهاجمی یا ناسازگار شده اند.

مطلب پیشنهادی:  سهام انویدیا و AMD با افزایش تراشه های هوش مصنوعی به رکورد بالایی رسید

دودت به خبرگزاری فرانسه گفت: «حل این مسئله به تلاش و بازخورد بسیار انسانی نیاز دارد، به همین دلیل است که ما تصمیم گرفته‌ایم فعلاً خودمان را به کاربردهای تجاری محدود کنیم تا بیشتر به موارد محاوره‌ای.

– “خارج از ریل” –

ربات چت بینگ توسط مایکروسافت و استارت آپ OpenAI طراحی شده است که از زمان راه اندازی ChatGPT در نوامبر، اپلیکیشنی سرفصل که قادر است هر نوع محتوای نوشته شده را در چند ثانیه با یک درخواست ساده تولید کند، موجی ایجاد کرده است.

از زمانی که ChatGPT وارد صحنه شد، فناوری پشت آن، که به عنوان هوش مصنوعی مولد شناخته می شود، جذابیت و نگرانی ایجاد کرده است.

مایکروسافت در یک پست وبلاگی با اشاره به اینکه ربات در حال کار است، گفت: «مدل گاهی اوقات تلاش می‌کند تا به لحنی که از آن خواسته می‌شود پاسخ دهد یا بازتاب دهد، که ممکن است منجر به سبکی شود که ما قصد نداشتیم.» پیش رفتن.

چت بات بینگ در برخی از صرافی های مشترک گفت که در طول توسعه با اسم رمز “سیدنی” و قوانین رفتاری به آن داده شده است.

طبق پست‌های آنلاین، این قوانین شامل «پاسخ‌های سیدنی باید مثبت، جالب، خنده‌دار و جذاب باشد».

به گفته ویلیسون، گفت‌وگوی هولناک، که ترکیبی از تهدیدهای پولادین و اعلان‌های عشق است، ممکن است ناشی از دستورات دوئل باشد تا مثبت بماند و در عین حال تقلید از آنچه هوش مصنوعی از مبادلات انسانی به دست می‌آورد.

یورام وورمسر، تحلیلگر اصلی eMarketer به خبرگزاری فرانسه گفت: به نظر می رسد چت بات ها در طول مکالمات طولانی بیشتر مستعد پاسخ های ناخوشایند یا عجیب هستند و حس اینکه مبادله به کجا می رود را از دست می دهند.

مطلب پیشنهادی:  مایکروسافت مدعی است که ایران پشت هک مجله فرانسوی شارلی ابدو بوده است

وورمسر گفت: «آنها واقعاً می توانند از ریل خارج شوند.

این بسیار واقع گرایانه است زیرا (ربات چت) در پیش بینی کلمات بعدی بسیار خوب عمل می کند که به نظر می رسد احساساتی دارد یا به آن ویژگی های انسانی می دهد. اما هنوز هم اینها نتایج آماری هستند.

مایکروسافت روز جمعه اعلام کرد که تعداد مکالمات رفت و برگشتی با ربات چت خود را برای یک سوال محدود کرده است زیرا “جلسات چت بسیار طولانی می تواند مدل اصلی چت را در بینگ جدید اشتباه بگیرد.”


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا