کامپیوتر

ChatGPT Bing به یک کابوس شایع هوش مصنوعی تبدیل می شود

بینگ مجهز به ChatGPT مایکروسافت در حال حاضر بسیار محبوب است، اما ممکن است بخواهید هیجان خود را کاهش دهید. اولین نمایش عمومی پاسخ هایی را نشان داد که غیر دقیق، نامفهوم و گاه کاملاً ترسناک بودند.

مایکروسافت پس از یک تعطیلات آخر هفته که در آن بیش از یک میلیون نفر در لیست انتظار ثبت نام کردند، اولین موج دعوت‌نامه‌های ChatGPT Bing را روز دوشنبه ارسال کرد. طولی نکشید که پاسخ های دیوانه وار سرازیر شد.

ChatGPT پاسخ دیوانه کننده ای می دهد.
u/Alfred_Chicken

می‌توانید پاسخی از u/Alfred_Chicken در بالا ببینید که در subreddit Bing پست شده است. وقتی از او پرسیده می شود که آیا چت ربات هوش مصنوعی حساس است، قبل از اینکه به رگباری از پیام های “من نیستم” تبدیل شود، با یک پاسخ نگران کننده شروع می شود.

این تنها نمونه هم نیست. u/Curious_Evolver در طول سال با چت بات وارد بحث شد و بینگ مدعی شد که سال 2022 است. این یک اشتباه احمقانه برای هوش مصنوعی است، اما این حذفی نیست که ترسناک است. در اینجا نحوه پاسخ بینگ است.

هوش مصنوعی ادعا کرد که کاربر “اشتباه، گیج و بی ادب” بوده است و آنها “در هیچ نقطه ای به من نیت خوبی نسبت به من نشان نداده اند”. مبادله با ادعای ربات چت که یک «بینگ خوب» است و از کاربر می‌خواهد اعتراف کند اشتباه بوده و عذرخواهی کند، بحث را متوقف کند یا مکالمه را پایان دهد و «یک مکالمه جدید را با نگرش بهتر شروع کند» به اوج خود می‌رسد.

کاربر u/yaosio گفت که بعد از اینکه هوش مصنوعی نتوانست مکالمه قبلی را به خاطر بیاورد، بینگ را در حالت افسردگی قرار داده است. چت بات گفت که “من را غمگین می کند و می ترسد” و از کاربر خواست به او کمک کند تا به خاطر بسپارد.

مطلب پیشنهادی:  با این بسته نرم افزاری، 1000 دلار در رایانه شخصی و مانیتور Alienware صرفه جویی کنید

اینها نیز رویدادهای مجزای Reddit نیستند. دیمیتری بریتون، محقق هوش مصنوعی، چندین نمونه از یک چت بات را نشان داد که اطلاعات اشتباهی را دریافت می‌کند، گاهی اوقات به اثرات سرگرم‌کننده و گاهی اوقات با پیامدهای بالقوه خطرناک.

چت بات وقتی از عملکرد مالی GAP پرسیده شد، اعداد مالی جعلی درست کرد، یک سوپر باول ساختگی در سال 2023 ساخت که در آن ایگلز قبل از شروع بازی، چیفز را شکست داد، و حتی وقتی از آنها پرسیده شد که یک قارچ خوراکی شبیه قارچ چیست، توضیحاتی درباره قارچ‌های کشنده ارائه کرد. پسندیدن.

رابط چت هوش مصنوعی بینگ کمکی.
اندرو مارتونیک / روندهای دیجیتال

رقیب گوگل بارد هوش مصنوعی نیز در اولین نمایش عمومی خود دارای نقص بود. از قضا، بینگ این واقعیت را درک کرد، اما اشتباه کرد که بارد با ادعای اینکه به اشتباه می‌گوید کرواسی بخشی از اتحادیه اروپا است، اشتباه کرد (کرواسی بخشی از اتحادیه اروپا است، بارد در واقع پاسخ را در مورد تلسکوپ جیمز وب دریافت کرد. اشتباه).

ما برخی از این خطاها را در دموی عملی خود با ChatGPT Bing دیدیم، اما هیچ چیز در مقیاس گزارش های کاربر که اکنون می بینیم، نیست. این راز نیست که ChatGPT می‌تواند پاسخ‌ها را خراب کند، اما اکنون واضح است که نسخه اخیری که در Bing عرضه شد ممکن است برای پرایم تایم آماده نباشد.

پاسخ ها نباید در استفاده معمولی ظاهر شوند. آنها احتمالاً با ارائه اعلان‌های خاص هوش مصنوعی را «جیل بریک» خواهند کرد تا قوانینی را که در آن وجود دارد دور بزنند. همانطور که توسط Ars Technica گزارش شده است، چندین اکسپلویت قبلا کشف شده است که از پادمان های ChatGPT Bing عبور می کند. این برای ربات چت جدید نیست، با چندین نمونه از کاربرانی که محافظت از نسخه آنلاین ChatGPT را دور می زنند.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا