کامپیوتر

احتمالاً مایکروسافت می‌دانست که چت بینگ برای ماه‌ها چقدر ناپایدار است

هوش مصنوعی Bing Chat مایکروسافت شروعی دشوار داشت، اما به نظر می رسد که مایکروسافت ممکن است قبل از شروع عمومی خود از مشکلات آن مطلع بوده باشد. یک پست پشتیبانی در وب سایت مایکروسافت به پاسخ های “بی ادبانه” از ربات چت “سیدنی” اشاره دارد، داستانی که ما در هفته گذشته می شنویم. مشکل اینجاست – پست در 23 نوامبر 2022 ایجاد شده است.

این افشاگری از سوی بن اشمیت، معاون طراحی اطلاعات در Nomic است که این پست را با گری مارکوس، نویسنده ای که هوش مصنوعی را پوشش می دهد و بنیانگذار هوش هندسی به اشتراک گذاشته است. داستان از این قرار است که مایکروسافت قبل از اعلام رسمی در هند و اندونزی بین نوامبر و ژانویه در حال آزمایش بینگ چت – بنابر این پست، سیدنی بود.

پست انجمن درباره بینگ چت.

من از مایکروسافت پرسیدم که آیا این مورد است و آنها بیانیه زیر را به اشتراک گذاشتند:

سیدنی یک نام رمز قدیمی برای یک ویژگی چت است که بر اساس مدل‌های قبلی است که آزمایش آن را بیش از یک سال پیش آغاز کردیم. بینش‌هایی که به عنوان بخشی از این جمع‌آوری کردیم به کار ما با بررسی جدید Bing کمک کرد. ما همچنان به تنظیم دقیق تکنیک‌ها و کار بر روی مدل‌های پیشرفته‌تر برای ترکیب آموخته‌ها و بازخوردها ادامه می‌دهیم تا بتوانیم بهترین تجربه کاربر را ارائه دهیم. ما به اشتراک گذاری به روز رسانی های پیشرفت از طریق وبلاگ خود ادامه خواهیم داد.

پست اولیه نشان می‌دهد که ربات هوش مصنوعی با کاربر بحث می‌کند و به همان جملاتی می‌نشیند که وقتی بینگ چت گفت می‌خواهد «انسان باشد» دیدیم. در ادامه این تاپیک، سایر کاربران با تجربیات خود وارد صدا شدند و شکلک‌های شکلک بدنامی را که بینگ چت بیشتر پاسخ‌هایش را دنبال می‌کند، بازنشر کردند.

مطلب پیشنهادی:  این لپ تاپ گیمینگ 17 اینچی HP RTX 4080 500 دلار تخفیف دارد

بدتر از همه، پوستر اصلی می‌گفت که آنها درخواست ارائه بازخورد و گزارش در مورد ربات چت کرده‌اند، که تا حدی اعتبار می‌دهد که مایکروسافت از انواع پاسخ‌هایی که هوش مصنوعی خود قادر به انجام آن است آگاه است.

این با آنچه مایکروسافت در روزهای پس از انفجار ربات چت در رسانه ها گفت، تناقض دارد. مایکروسافت در اطلاعیه‌ای که تغییرات آتی در بینگ چت را پوشش می‌دهد، گفت که «سرگرمی اجتماعی»، که احتمالاً به روش‌هایی اشاره دارد که کاربران سعی کرده‌اند بینگ چت را فریب دهند تا پاسخ‌های تحریک‌آمیز را فریب دهند، یک «مورد استفاده جدید برای چت» است.

مایکروسافت از زمان راه اندازی چندین تغییر در هوش مصنوعی ایجاد کرده است، از جمله کاهش قابل توجه طول مکالمات. این تلاشی برای محدود کردن انواع پاسخ‌هایی است که در روزهایی که مایکروسافت برای اولین بار بینگ چت را معرفی کرد، دیده‌ایم. مایکروسافت می گوید در حال حاضر روی افزایش محدودیت های چت کار می کند.

در حالی که داستان آزمایش بینگ چت توسط مایکروسافت همچنان در هوا باقی مانده است، واضح است که هوش مصنوعی برای مدتی در برنامه ریزی بوده است. مایکروسافت در اوایل سال جاری به دنبال موفقیت ChatGPT، سرمایه‌گذاری چند میلیارد دلاری در OpenAI انجام داد و خود بینگ چت بر اساس نسخه اصلاح شده مدل GPT این شرکت ساخته شده است. علاوه بر این، مایکروسافت چند روز قبل از اعلام بینگ چت به جهان درباره «هوش مصنوعی مسئول» وبلاگی منتشر کرد.

چندین سؤال اخلاقی در مورد هوش مصنوعی و استفاده از آن در موتور جستجویی مانند بینگ وجود دارد، همچنین این احتمال وجود دارد که مایکروسافت قبل از آماده شدن Bing Chat و دانستن توانایی هایش، آن را لغو کند. پست پشتیبانی مورد نظر آخرین بار در 21 فوریه 2023 به‌روزرسانی شد، اما سابقه سؤال و پاسخ‌های اصلی نشان می‌دهد که از تاریخ ارسال اولیه اصلاح نشده‌اند.

مطلب پیشنهادی:  Windows 11 Home معمولاً 139 دلار قیمت دارد، اما امروز فقط 30 دلار است

این امکان وجود دارد که مایکروسافت تصمیم بگیرد که با احساس فشار ناشی از Google Bard آینده و افزایش محبوبیت ChatGPT، به سمت جلو حرکت کند.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا