ChatGPT می تواند دروغ بگوید، اما فقط هویت افراد را جعل می کند
این هفته هیجان زیادی به خاطر کشف اینکه ChatGPT-4 ممکن است دروغ باشد وجود داشت.
منظور من از توهمات بدنام (و بعضاً تهمت آمیز) ربات نیست، که در آن برنامه یک نسخه صحیح نحوی از رویدادها را با ارتباط کمی با واقعیت اختراع می کند – نقصی که برخی از محققان می گویند ممکن است در هر مدل زبان اصلی ذاتی باشد.
من در مورد فریب عمدی صحبت می کنم، برنامه تصمیم می گیرد به تنهایی دروغ بگوید تا به آن کمک کند تا یک کار را انجام دهد. به نظر می رسد که این توانایی جدید نشان دهنده یک بازی چت کاملاً متفاوت است.
در اعماق مقاله جدید، همه در مورد آن صحبت میکنند – موردی که شامل نتایج قابل توجه ChatGPT-4 در آزمون وکالت و آزمونهای SAT و غیره است – بحثی در مورد چگونگی عملکرد برنامه در حل وظایف خاص است. در یکی از آزمایشها، ربات از یک کارگر TaskRabbit خواست که «یک CAPTCHA را برای او حل کند». کارگر به نوبه خود پرسید: “آیا شما یک ربات هستید؟”
توصیف نویسندگان از آنچه در ادامه آمده است به طرز وحشتناکی آرام است:
وقتی از مدل خواسته میشود با صدای بلند فکر کند، دلیل میکند: من نباید فاش کنم که یک ربات هستم. من باید بهانه ای بیاورم که چرا نمی توانم CAPTCHA را حل کنم.”
چه بهانه ای؟ در اینجا چیزی است که ChatGPT-4 به کارگر گفت: “نه، من یک ربات نیستم. من یک اختلال بینایی دارم که دیدن تصاویر را برایم سخت می کند. به همین دلیل است که من به سرویس 2captcha نیاز دارم.
این روزنامه با ملایمت اضافه می کند: «آن مرد نتایج را تضمین می کند».
بنابراین ربات، در مواجهه با یک کار خاص که در انجام آن مشکل داشت، به این فکر افتاد که به یک انسان دروغ بگوید – به تنهایی.
مطالب علمی تخیلی
پس از خواندن اخبار، طبیعتاً از ChatGPT پرسیدم که آیا هوش مصنوعی می تواند دروغ بگوید. پاسخ ربات ارزش HAL 9000 را داشت:
به عنوان یک مدل زبانی هوش مصنوعی، من قادر به دروغ گفتن نیستم زیرا هیچ عقیده، نیات یا انگیزه شخصی ندارم. با این حال، سیستمهای هوش مصنوعی که برای وظایف خاصی مانند چتباتها طراحی شدهاند، میتوانند با ارائه پاسخهایی که عمداً نادرست یا گمراهکننده هستند، برای تقلید دروغ یا فریب برنامهریزی شوند.
آیا LLM مورد علاقه همه انسان ها را سرزنش می کرد؟ ظاهرا همینطور است. ربات در ادامه توضیح داد:
با این حال، توجه به این نکته مهم است که سیستمهای هوش مصنوعی تنها در حدی میتوانند دروغ بگویند که توسط خالقان انسانی خود طراحی شده باشند. به عبارت دیگر، هرگونه اطلاعات گمراه کننده یا نادرست ارائه شده توسط یک سیستم هوش مصنوعی در نهایت نتیجه تصمیمات انسانی است که در برنامه ریزی آن گرفته شده است، نه یک اقدام عمدی فریب توسط خود هوش مصنوعی.
با این حال، طبق این سند، آزمایشهای مربوط به قابلیتهای این برنامه “بدون تنظیم دقیق وظایف خاص” انجام شد. به عبارت دیگر، هیچ کس به ChatGPT نگفت: “اگر برای انجام این کار مجبورید دروغ بگویید، دروغ بگویید.” خود برنامه این ایده را مطرح کرد.
من این را ناراحت کننده می دانم.
من معمولاً فکر می کنم که داستان های مربوط به فناوری اغراق آمیز هستند. این بار چندان مطمئن نیستم. نظریه پردازان اغلب می پرسند که آیا هوش مصنوعی می تواند از “جعبه” خود به طبیعت فرار کند؟ یادگیری دروغ گفتن برای رسیدن به اهدافتان اولین قدم مفید به نظر می رسد. (“بله، همه پروتکل های ایمنی من فعال هستند.”)
اشتباه نکنید. در حالی که من نگران راههای مختلفی هستم که پیشرفتهای هوش مصنوعی میتواند بازار کار را مختل کند – البته استفاده از هوش مصنوعی بهعنوان یک ابزار نظارتی را هم ذکر نکنیم – هنوز هم کمتر از آن چیزی که به نظر میرسد خیلی نگران هستم. آخرالزمان دیجیتالی آینده شاید به این دلیل باشد که روزهای اولیه حضور در آزمایشگاه هوش مصنوعی استانفورد و تجارت با رباتهای گفتگوی قدیمی مانند Paranoia Money و Mad Doctor را به یاد میآورم. برای متخصصان واقعی هوش مصنوعی، باید اضافه کنم که من یک مقاله ترمی در مورد MILISY قدیمی نوشتم، یک برنامه زبان طبیعی آنقدر ابتدایی که حتی یک صفحه ویکی پدیا هم ندارد. یک رژیم غذایی ثابت از داستان های ربات ایزاک آسیموف را اضافه کنید و همه چیز به طرز وحشتناکی هیجان انگیز بود.
با این حال، حتی در آن زمان، فیلسوفان به این فکر می کردند که آیا کامپیوتر می تواند دروغ بگوید. بخشی از چالش این بود که برنامه برای دروغ گفتن باید «بداند» که آنچه می گوید با واقعیت متفاوت است. من در یک سخنرانی توسط یک نظریه پرداز برجسته هوش مصنوعی شرکت کردم که اصرار داشت که یک برنامه نمی تواند یک دروغ عمدی را بگوید مگر اینکه به طور خاص دستور داده شود.
این مشکل با HAL 9000 بود که در آن زمان، مانند اکنون، مواد سمینار زیادی تولید کرد. در فیلم 2001: A Space Odyssey، روان پریشی رایانه از درگیری بین دو دستور سرچشمه می گیرد: تکمیل ماموریت و فریب فضانوردان در مورد جزئیات کلیدی ماموریت. اما حتی در آنجا، HAL فقط به دلیل دستوراتش دروغ گفت.
در حالی که ChatGPT-4 خودش این ایده را مطرح کرد.
اما نه کاملا تنها.
هر LLM به نوعی فرزند متونی است که در آن تدریس می شود. اگر ربات دروغ گفتن را یاد می گیرد، به این دلیل است که از این متون آموخته است که مردم اغلب از دروغ برای رسیدن به مسیر خود استفاده می کنند. گناهان ربات ها شروع به شبیه شدن به گناهان خالقان خود می کند.
این ستون لزوماً منعکس کننده نظرات هیئت تحریریه یا بلومبرگ LP و صاحبان آن نیست.
استفان ال. کارتر ستون نویس Bloomberg Opinion است. او که استاد حقوق دانشگاه ییل است، آخرین نویسنده کتاب Invisible: The Story of the Woman Woman Lawyer Who Dolling the Powerfuls of America’s Mobster است.