شاید بزرگترین دستاورد ChatGPT این باشد که ما را فریب دهد تا فکر کنیم صادقانه است.
در زندگینامه نویسنده آمریکایی مارک تواین، او از بنجامین دیزرائیلی، نخست وزیر سابق بریتانیا – یا شاید اشتباه نقل قول می کند که گفته است: دروغ سه نوع است: دروغ، دروغ لعنتی و آمار.
در یک جهش باورنکردنی به جلو، هوش مصنوعی هر سه را در یک بسته کوچک منظم ترکیب می کند.
ChatGPT و دیگر چترباتهای هوش مصنوعی مولد مانند آن بر روی مجموعههای دادهای عظیم از سراسر اینترنت آموزش دیدهاند تا از نظر آماری محتملترین پاسخ را به یک درخواست ایجاد کنند. پاسخهای او بر اساس هیچ گونه درکی از اینکه چه چیزی چیزی را خندهدار، معنادار یا دقیق میکند نیست، بلکه بر اساس عبارت، املا، دستور زبان و حتی سبک سایر صفحات وب است.
پاسخهای خود را از طریق آنچه «رابط مکالمه» نامیده میشود ارائه میکند: آنچه کاربر گفته است را به خاطر میآورد و میتواند با استفاده از نشانههای متنی و گامبیتهای هوشمندانه، مکالمه را ادامه دهد. این یک وصله stat به اضافه یک نوشداروی Stat است، و مشکل در اینجاست.
بی پروا، اما قانع کننده
وقتی با شخص دیگری صحبت می کنم، تمام تجربه من در برقراری ارتباط با افراد دیگر را نشان می دهد. بنابراین وقتی یک برنامه مانند یک شخص صحبت می کند، بسیار سخت است که به گونه ای واکنش نشان ندهید که گویی در حال گفتگوی واقعی هستید – انتخاب چیزی، فکر کردن در مورد آن، پاسخ دادن در چارچوب دو ایده ما.
با این حال، این به هیچ وجه با یک همکار هوش مصنوعی اتفاق نمی افتد. آنها نمی توانند فکر کنند و درک و درک ندارند.
ارائه اطلاعات مانند یک انسان در یک مکالمه، هوش مصنوعی را بیشتر از آنچه لازم است متقاعد می کند. این نرم افزار وانمود می کند که از آنچه هست قابل اعتمادتر است زیرا از ترفندهای لفاظی انسانی برای جعل قابلیت اطمینان، شایستگی و درک بسیار فراتر از توانایی های خود استفاده می کند.
در اینجا دو مسئله وجود دارد: آیا خروجی درست است؟ و آیا مردم نتیجه را درست می دانند؟
بخش رابط نرم افزار بیش از آنچه الگوریتم می تواند ارائه دهد وعده می دهد و توسعه دهندگان آن را می دانند. سام آلتمن، مدیر عامل OpenAI، شرکت پشتیبان ChatGPT، اذعان میکند که «ChatGPT بهطور باورنکردنی محدود است، اما در برخی چیزها به اندازهای خوب است که یک تصور گمراهکننده از عظمت ایجاد کند».
این موضوع هنوز مانع از هجوم شرکتهایی نشده است که برای ادغام ابزار اولیه در محصولات مصرفی خود (از جمله جستجوی Bing مایکروسافت) عجله دارند تا از این ابزار عقب نمانند.
واقعیت و خیال
گاهی اوقات هوش مصنوعی اشتباه خواهد بود، اما رابط مکالمه نتایج را با همان اطمینان و وضوحی که درست است ارائه می دهد. به عنوان مثال، همانطور که تد چیانگ نویسنده داستان های علمی تخیلی اشاره می کند، این ابزار هنگام جمع کردن با اعداد بزرگتر اشتباه می کند زیرا واقعا منطقی برای انجام ریاضی ندارد.
این فقط با نمونه هایی در وب که شامل اضافه کردن هستند مطابقت دارد. و در حالی که او می تواند نمونه هایی از سوالات رایج ریاضی را بیابد، اما متن مطالعه ای شامل اعداد بزرگتر را ندیده است.
قواعد ریاضی که یک کودک 10 ساله می تواند به صراحت از آنها استفاده کند، “نمی داند”. با این حال، رابط مکالمه پاسخ خود را قطعی نشان می دهد، مهم نیست چقدر اشتباه است، همانطور که در این تبادل با ChatGPT منعکس شده است.
کاربر: پایتخت مالزی چیست؟
ChatGPT: پایتخت مالزی کوالالامپور است.
کاربر: 27 * 7338 چیست؟
ChatGPT: 27 * 7338 برابر با 200526 است.
نیست.
هوش مصنوعی مولد میتواند حقایق واقعی را با داستانهای تخیلی در زندگینامه یک شخصیت عمومی ترکیب کند یا برای اسنادی که هرگز نوشته نشدهاند به منابع علمی قابل قبولی استناد کند.
این منطقی است: صفحات وب آمار توجه دارند که افراد مشهور اغلب جوایزی را دریافت کرده اند و مقالات معمولاً دارای ارجاع هستند. ChatGPT فقط کاری را انجام می دهد که برای انجام آن طراحی شده است و محتوایی را که ممکن است محتمل باشد، خواه درست باشد یا نه، جمع آوری می کند.
دانشمندان کامپیوتر این را توهم هوش مصنوعی می نامند. بقیه ممکن است آن را دروغ بنامیم.
نتایج ترسناک
وقتی به دانشجویان طراحی خود آموزش می دهم، در مورد اهمیت تطبیق خروجی با فرآیند صحبت می کنم. اگر ایدهای در مرحله مفهومی است، نباید به گونهای ارائه شود که صیقلیتر از آنچه هست به نظر برسد – نباید به صورت سه بعدی ارائه شود یا روی مقوای براق چاپ شود. طرح مداد روشن می کند که ایده اولیه است، به راحتی قابل تغییر است و نباید انتظار داشت که به تمام بخش های مشکل رسیدگی کند.
همین امر در مورد رابطهای مکالمه نیز صدق میکند: وقتی فناوری با ما با لحنهای خوش ساخت، از نظر گرامری صحیح یا پرحرف صحبت میکند، ما تمایل داریم آن را بهعنوان تفکر و استدلال بسیار بیشتر از آنچه که وجود دارد، تفسیر کنیم. این ترفندی است که هنرمند باید از آن استفاده کند، نه کامپیوتر.
توسعهدهندگان هوش مصنوعی مسئولیت مدیریت انتظارات مصرفکننده را دارند، زیرا ممکن است از قبل آماده باشیم تا همه آنچه را که دستگاه میگوید باور کنیم. جوردن النبرگ، ریاضیدان، نوعی «ارعاب جبری» را توصیف میکند که میتواند قضاوت بهتر ما را فقط با ادعای اینکه ریاضیات در آن دخیل است، نادیده بگیرد.
هوش مصنوعی با صدها میلیارد پارامتر می تواند ما را با ارعاب الگوریتمی مشابه خلع سلاح کند.
در حالی که ما در حال ساختن الگوریتمها برای تولید محتوای بهتر و بهتر هستیم، باید مطمئن شویم که خود اینترفیس بیش از حد وعده نمیدهد. مکالمات در دنیای فناوری از قبل مملو از اعتماد به نفس و تکبر است – شاید هوش مصنوعی در عوض کمی فروتنی داشته باشد.