تکنولوژی

شاید بزرگترین دستاورد ChatGPT این باشد که ما را فریب دهد تا فکر کنیم صادقانه است.

در زندگینامه نویسنده آمریکایی مارک تواین، او از بنجامین دیزرائیلی، نخست وزیر سابق بریتانیا – یا شاید اشتباه نقل قول می کند که گفته است: دروغ سه نوع است: دروغ، دروغ لعنتی و آمار.

در یک جهش باورنکردنی به جلو، هوش مصنوعی هر سه را در یک بسته کوچک منظم ترکیب می کند.

ChatGPT و دیگر چت‌ربات‌های هوش مصنوعی مولد مانند آن بر روی مجموعه‌های داده‌ای عظیم از سراسر اینترنت آموزش دیده‌اند تا از نظر آماری محتمل‌ترین پاسخ را به یک درخواست ایجاد کنند. پاسخ‌های او بر اساس هیچ گونه درکی از اینکه چه چیزی چیزی را خنده‌دار، معنادار یا دقیق می‌کند نیست، بلکه بر اساس عبارت، املا، دستور زبان و حتی سبک سایر صفحات وب است.

پاسخ‌های خود را از طریق آنچه «رابط مکالمه» نامیده می‌شود ارائه می‌کند: آنچه کاربر گفته است را به خاطر می‌آورد و می‌تواند با استفاده از نشانه‌های متنی و گامبیت‌های هوشمندانه، مکالمه را ادامه دهد. این یک وصله stat به اضافه یک نوشداروی Stat است، و مشکل در اینجاست.

بی پروا، اما قانع کننده

وقتی با شخص دیگری صحبت می کنم، تمام تجربه من در برقراری ارتباط با افراد دیگر را نشان می دهد. بنابراین وقتی یک برنامه مانند یک شخص صحبت می کند، بسیار سخت است که به گونه ای واکنش نشان ندهید که گویی در حال گفتگوی واقعی هستید – انتخاب چیزی، فکر کردن در مورد آن، پاسخ دادن در چارچوب دو ایده ما.

با این حال، این به هیچ وجه با یک همکار هوش مصنوعی اتفاق نمی افتد. آنها نمی توانند فکر کنند و درک و درک ندارند.

مطلب پیشنهادی:  سرویس بدافزار "Warzone RAT" که رمزهای عبور حذف شده کاربران را سرقت می کند، مظنونان دستگیر شدند

ارائه اطلاعات مانند یک انسان در یک مکالمه، هوش مصنوعی را بیشتر از آنچه لازم است متقاعد می کند. این نرم افزار وانمود می کند که از آنچه هست قابل اعتمادتر است زیرا از ترفندهای لفاظی انسانی برای جعل قابلیت اطمینان، شایستگی و درک بسیار فراتر از توانایی های خود استفاده می کند.

در اینجا دو مسئله وجود دارد: آیا خروجی درست است؟ و آیا مردم نتیجه را درست می دانند؟

بخش رابط نرم افزار بیش از آنچه الگوریتم می تواند ارائه دهد وعده می دهد و توسعه دهندگان آن را می دانند. سام آلتمن، مدیر عامل OpenAI، شرکت پشتیبان ChatGPT، اذعان می‌کند که «ChatGPT به‌طور باورنکردنی محدود است، اما در برخی چیزها به اندازه‌ای خوب است که یک تصور گمراه‌کننده از عظمت ایجاد کند».

این موضوع هنوز مانع از هجوم شرکت‌هایی نشده است که برای ادغام ابزار اولیه در محصولات مصرفی خود (از جمله جستجوی Bing مایکروسافت) عجله دارند تا از این ابزار عقب نمانند.

واقعیت و خیال

گاهی اوقات هوش مصنوعی اشتباه خواهد بود، اما رابط مکالمه نتایج را با همان اطمینان و وضوحی که درست است ارائه می دهد. به عنوان مثال، همانطور که تد چیانگ نویسنده داستان های علمی تخیلی اشاره می کند، این ابزار هنگام جمع کردن با اعداد بزرگتر اشتباه می کند زیرا واقعا منطقی برای انجام ریاضی ندارد.

این فقط با نمونه هایی در وب که شامل اضافه کردن هستند مطابقت دارد. و در حالی که او می تواند نمونه هایی از سوالات رایج ریاضی را بیابد، اما متن مطالعه ای شامل اعداد بزرگتر را ندیده است.

مطلب پیشنهادی:  سه نفر به اتهام هک کریپتو 400 میلیون دلاری FTX دستگیر شدند

قواعد ریاضی که یک کودک 10 ساله می تواند به صراحت از آنها استفاده کند، “نمی داند”. با این حال، رابط مکالمه پاسخ خود را قطعی نشان می دهد، مهم نیست چقدر اشتباه است، همانطور که در این تبادل با ChatGPT منعکس شده است.

کاربر: پایتخت مالزی چیست؟

ChatGPT: پایتخت مالزی کوالالامپور است.

کاربر: 27 * 7338 چیست؟

ChatGPT: 27 * 7338 برابر با 200526 است.

نیست.

هوش مصنوعی مولد می‌تواند حقایق واقعی را با داستان‌های تخیلی در زندگی‌نامه یک شخصیت عمومی ترکیب کند یا برای اسنادی که هرگز نوشته نشده‌اند به منابع علمی قابل قبولی استناد کند.

این منطقی است: صفحات وب آمار توجه دارند که افراد مشهور اغلب جوایزی را دریافت کرده اند و مقالات معمولاً دارای ارجاع هستند. ChatGPT فقط کاری را انجام می دهد که برای انجام آن طراحی شده است و محتوایی را که ممکن است محتمل باشد، خواه درست باشد یا نه، جمع آوری می کند.

دانشمندان کامپیوتر این را توهم هوش مصنوعی می نامند. بقیه ممکن است آن را دروغ بنامیم.

نتایج ترسناک

وقتی به دانشجویان طراحی خود آموزش می دهم، در مورد اهمیت تطبیق خروجی با فرآیند صحبت می کنم. اگر ایده‌ای در مرحله مفهومی است، نباید به گونه‌ای ارائه شود که صیقلی‌تر از آنچه هست به نظر برسد – نباید به صورت سه بعدی ارائه شود یا روی مقوای براق چاپ شود. طرح مداد روشن می کند که ایده اولیه است، به راحتی قابل تغییر است و نباید انتظار داشت که به تمام بخش های مشکل رسیدگی کند.

همین امر در مورد رابط‌های مکالمه نیز صدق می‌کند: وقتی فناوری با ما با لحن‌های خوش ساخت، از نظر گرامری صحیح یا پرحرف صحبت می‌کند، ما تمایل داریم آن را به‌عنوان تفکر و استدلال بسیار بیشتر از آنچه که وجود دارد، تفسیر کنیم. این ترفندی است که هنرمند باید از آن استفاده کند، نه کامپیوتر.

مطلب پیشنهادی:  بمبئی: پنج نفر از جمله یک یوتیوبر به دلیل کلاهبرداری آنلاین از جارکند دستگیر شدند

توسعه‌دهندگان هوش مصنوعی مسئولیت مدیریت انتظارات مصرف‌کننده را دارند، زیرا ممکن است از قبل آماده باشیم تا همه آنچه را که دستگاه می‌گوید باور کنیم. جوردن النبرگ، ریاضیدان، نوعی «ارعاب جبری» را توصیف می‌کند که می‌تواند قضاوت بهتر ما را فقط با ادعای اینکه ریاضیات در آن دخیل است، نادیده بگیرد.

هوش مصنوعی با صدها میلیارد پارامتر می تواند ما را با ارعاب الگوریتمی مشابه خلع سلاح کند.

در حالی که ما در حال ساختن الگوریتم‌ها برای تولید محتوای بهتر و بهتر هستیم، باید مطمئن شویم که خود اینترفیس بیش از حد وعده نمی‌دهد. مکالمات در دنیای فناوری از قبل مملو از اعتماد به نفس و تکبر است – شاید هوش مصنوعی در عوض کمی فروتنی داشته باشد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا