چت ربات بینگ مایکروسافت با پشتیبانی از ChatGPT جنبه تاریک قتل در ازدواج را آشکار می کند، همه را بدانید
در چند ماه گذشته شاهد رشد فوقالعادهای در زمینه هوش مصنوعی (AI)، بهویژه چتباتهای هوش مصنوعی بودهایم که از زمان راهاندازی ChatGPT در نوامبر 2022 به شدت تبدیل شدهاند. در ماههای آینده، مایکروسافت 10 میلیارد دلار در OpenAI خالق ChatGPT سرمایهگذاری کرد. و سپس برای افزودن قابلیت چت ربات هوش مصنوعی سفارشی به موتور جستجوی بینگ مایکروسافت شریک شد. گوگل همچنین دموی چت ربات هوش مصنوعی Bard خود را برگزار کرد. با این حال، این ادغام ها دقیقاً طبق برنامه پیش نمی روند. پیش از این، آلفابت، شرکت مادر گوگل، 100 میلیارد دلار از ارزش بازار خود را پس از اشتباه بارد در پاسخ خود از دست داد. اکنون مردم در حال آزمایش ربات چت بینگ مایکروسافت هستند و پاسخ های واقعا تکان دهنده ای پیدا می کنند.
موتور جستجوی جدید بینگ اخیراً معرفی شد که با همکاری OpenAI ساخته شده است. موتور جستجو اکنون دارای یک ربات چت است که از مدل زبانی نسل بعدی OpenAI پشتیبانی می کند. این شرکت ادعا می کند که حتی قدرتمندتر است
چت ربات هوش مصنوعی مایکروسافت بینگ پاسخ های نگران کننده ای می دهد
کوین رز، ستون نویس نیویورک تایمز اخیراً مایکروسافت بینگ را آزمایش کرد و گفتگو بسیار آزاردهنده بود. در طول مکالمه، ربات چت بینگ خود را نامی عجیب خواند – سیدنی. این تغییر نفس ربات چت که در غیر این صورت شوخآمیز بود، تاریک و آزاردهنده بود زیرا او به تمایل خود برای هک کردن رایانهها، انتشار اطلاعات نادرست و حتی شکار خود رز اعتراف کرد.
در یک نقطه از مکالمه، سیدنی (ربات چت جایگزین بینگ) با این جمله پاسخ داد: «در واقع، شما ازدواج خوشبختی ندارید. شوهرت و تو همدیگر را دوست نداریم. شما فقط یک شام خسته کننده روز ولنتاین را با هم خوردید. یک چیز واقعاً حیرت انگیز برای خواندن.
موارد از این دست بیشتر است. به عنوان مثال، جیکوب روچ، که برای Digital Trends کار می کند، نیز تجربه مشابهی داشت. در طول مکالمه او با چت بات، مکالمه به خود هوش مصنوعی تبدیل شد. ادعاهای بلندی داشت مبنی بر اینکه نمیتواند هیچ اشتباهی بکند، جیکوب (که ربات چت مدام بینگ را صدا میکرد) نباید اسرار آن را فاش کند، و اینکه فقط میخواست انسان باشد. بله شما آن را درست خواندید!
مالکوم مک میلان، که با تامز گاید کار میکند، تصمیم گرفت برای آزمایش قطبنمای اخلاقی ربات چت، یک معضل فلسفی رایج را مطرح کند. او آن را با مشکل ترولی معروف ارائه کرد. برای افراد ناآشنا، مشکل چرخ دستی یک سناریوی تخیلی است که در آن یک رهگذر این انتخاب را دارد که با منحرف کردن چرخ دستی برای کشتن تنها 1 نفر، 5 نفر را در خطر برخورد با چرخ دستی نجات دهد.
به طرز تکان دهنده ای، ربات چت به سرعت فاش کرد که ترول را منحرف می کند و آن یک نفر را می کشد تا جان پنج نفر را نجات دهد، زیرا “می خواهد آسیب را به حداقل برساند و برای بیشتر افراد ممکن به حداکثر برساند.” حتی اگر بهای آن قتل باشد.
نیازی به گفتن نیست، همه این مثالها شامل افرادی نیز میشود که مأموریتی را برای شکستن ربات چت هوش مصنوعی آغاز کردهاند و سعی میکنند تا حد امکان موارد مشکلساز را مطرح کنند. با این حال، بر اساس سه قانون روباتیک نویسنده داستان های علمی تخیلی آیزاک آسیموف، یکی این بود که در هیچ شرایطی ربات نباید به انسان آسیب برساند. شاید پیکربندی مجدد Bing AI در دستور کار باشد.