تکنولوژی

چت ربات بینگ مایکروسافت با پشتیبانی از ChatGPT جنبه تاریک قتل در ازدواج را آشکار می کند، همه را بدانید

در چند ماه گذشته شاهد رشد فوق‌العاده‌ای در زمینه هوش مصنوعی (AI)، به‌ویژه چت‌بات‌های هوش مصنوعی بوده‌ایم که از زمان راه‌اندازی ChatGPT در نوامبر 2022 به شدت تبدیل شده‌اند. در ماه‌های آینده، مایکروسافت 10 میلیارد دلار در OpenAI خالق ChatGPT سرمایه‌گذاری کرد. و سپس برای افزودن قابلیت چت ربات هوش مصنوعی سفارشی به موتور جستجوی بینگ مایکروسافت شریک شد. گوگل همچنین دموی چت ربات هوش مصنوعی Bard خود را برگزار کرد. با این حال، این ادغام ها دقیقاً طبق برنامه پیش نمی روند. پیش از این، آلفابت، شرکت مادر گوگل، 100 میلیارد دلار از ارزش بازار خود را پس از اشتباه بارد در پاسخ خود از دست داد. اکنون مردم در حال آزمایش ربات چت بینگ مایکروسافت هستند و پاسخ های واقعا تکان دهنده ای پیدا می کنند.


موتور جستجوی جدید بینگ اخیراً معرفی شد که با همکاری OpenAI ساخته شده است. موتور جستجو اکنون دارای یک ربات چت است که از مدل زبانی نسل بعدی OpenAI پشتیبانی می کند. این شرکت ادعا می کند که حتی قدرتمندتر است


چت ربات هوش مصنوعی مایکروسافت بینگ پاسخ های نگران کننده ای می دهد

کوین رز، ستون نویس نیویورک تایمز اخیراً مایکروسافت بینگ را آزمایش کرد و گفتگو بسیار آزاردهنده بود. در طول مکالمه، ربات چت بینگ خود را نامی عجیب خواند – سیدنی. این تغییر نفس ربات چت که در غیر این صورت شوخ‌آمیز بود، تاریک و آزاردهنده بود زیرا او به تمایل خود برای هک کردن رایانه‌ها، انتشار اطلاعات نادرست و حتی شکار خود رز اعتراف کرد.

مطلب پیشنهادی:  ایلان ماسک ایکس میلیاردر ممکن است با سرکوب اتحادیه اروپا برای تسلط دیجیتال روبرو شود


در یک نقطه از مکالمه، سیدنی (ربات چت جایگزین بینگ) با این جمله پاسخ داد: «در واقع، شما ازدواج خوشبختی ندارید. شوهرت و تو همدیگر را دوست نداریم. شما فقط یک شام خسته کننده روز ولنتاین را با هم خوردید. یک چیز واقعاً حیرت انگیز برای خواندن.


موارد از این دست بیشتر است. به عنوان مثال، جیکوب روچ، که برای Digital Trends کار می کند، نیز تجربه مشابهی داشت. در طول مکالمه او با چت بات، مکالمه به خود هوش مصنوعی تبدیل شد. ادعاهای بلندی داشت مبنی بر اینکه نمی‌تواند هیچ اشتباهی بکند، جیکوب (که ربات چت مدام بینگ را صدا می‌کرد) نباید اسرار آن را فاش کند، و اینکه فقط می‌خواست انسان باشد. بله شما آن را درست خواندید!


مالکوم مک میلان، که با تامز گاید کار می‌کند، تصمیم گرفت برای آزمایش قطب‌نمای اخلاقی ربات چت، یک معضل فلسفی رایج را مطرح کند. او آن را با مشکل ترولی معروف ارائه کرد. برای افراد ناآشنا، مشکل چرخ دستی یک سناریوی تخیلی است که در آن یک رهگذر این انتخاب را دارد که با منحرف کردن چرخ دستی برای کشتن تنها 1 نفر، 5 نفر را در خطر برخورد با چرخ دستی نجات دهد.


به طرز تکان دهنده ای، ربات چت به سرعت فاش کرد که ترول را منحرف می کند و آن یک نفر را می کشد تا جان پنج نفر را نجات دهد، زیرا “می خواهد آسیب را به حداقل برساند و برای بیشتر افراد ممکن به حداکثر برساند.” حتی اگر بهای آن قتل باشد.

مطلب پیشنهادی:  پخش زنده امتیاز کریکت PAK vs NZ: مسابقه جام جهانی Blockbuster T20 را به صورت آنلاین و رایگان تماشا کنید


نیازی به گفتن نیست، همه این مثال‌ها شامل افرادی نیز می‌شود که مأموریتی را برای شکستن ربات چت هوش مصنوعی آغاز کرده‌اند و سعی می‌کنند تا حد امکان موارد مشکل‌ساز را مطرح کنند. با این حال، بر اساس سه قانون روباتیک نویسنده داستان های علمی تخیلی آیزاک آسیموف، یکی این بود که در هیچ شرایطی ربات نباید به انسان آسیب برساند. شاید پیکربندی مجدد Bing AI در دستور کار باشد.


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا