احتمالاً مایکروسافت میدانست که چت بینگ برای ماهها چقدر ناپایدار است
هوش مصنوعی Bing Chat مایکروسافت شروعی دشوار داشت، اما به نظر می رسد که مایکروسافت ممکن است قبل از شروع عمومی خود از مشکلات آن مطلع بوده باشد. یک پست پشتیبانی در وب سایت مایکروسافت به پاسخ های “بی ادبانه” از ربات چت “سیدنی” اشاره دارد، داستانی که ما در هفته گذشته می شنویم. مشکل اینجاست – پست در 23 نوامبر 2022 ایجاد شده است.
این افشاگری از سوی بن اشمیت، معاون طراحی اطلاعات در Nomic است که این پست را با گری مارکوس، نویسنده ای که هوش مصنوعی را پوشش می دهد و بنیانگذار هوش هندسی به اشتراک گذاشته است. داستان از این قرار است که مایکروسافت قبل از اعلام رسمی در هند و اندونزی بین نوامبر و ژانویه در حال آزمایش بینگ چت – بنابر این پست، سیدنی بود.
من از مایکروسافت پرسیدم که آیا این مورد است و آنها بیانیه زیر را به اشتراک گذاشتند:
سیدنی یک نام رمز قدیمی برای یک ویژگی چت است که بر اساس مدلهای قبلی است که آزمایش آن را بیش از یک سال پیش آغاز کردیم. بینشهایی که به عنوان بخشی از این جمعآوری کردیم به کار ما با بررسی جدید Bing کمک کرد. ما همچنان به تنظیم دقیق تکنیکها و کار بر روی مدلهای پیشرفتهتر برای ترکیب آموختهها و بازخوردها ادامه میدهیم تا بتوانیم بهترین تجربه کاربر را ارائه دهیم. ما به اشتراک گذاری به روز رسانی های پیشرفت از طریق وبلاگ خود ادامه خواهیم داد.
پست اولیه نشان میدهد که ربات هوش مصنوعی با کاربر بحث میکند و به همان جملاتی مینشیند که وقتی بینگ چت گفت میخواهد «انسان باشد» دیدیم. در ادامه این تاپیک، سایر کاربران با تجربیات خود وارد صدا شدند و شکلکهای شکلک بدنامی را که بینگ چت بیشتر پاسخهایش را دنبال میکند، بازنشر کردند.
بدتر از همه، پوستر اصلی میگفت که آنها درخواست ارائه بازخورد و گزارش در مورد ربات چت کردهاند، که تا حدی اعتبار میدهد که مایکروسافت از انواع پاسخهایی که هوش مصنوعی خود قادر به انجام آن است آگاه است.
این با آنچه مایکروسافت در روزهای پس از انفجار ربات چت در رسانه ها گفت، تناقض دارد. مایکروسافت در اطلاعیهای که تغییرات آتی در بینگ چت را پوشش میدهد، گفت که «سرگرمی اجتماعی»، که احتمالاً به روشهایی اشاره دارد که کاربران سعی کردهاند بینگ چت را فریب دهند تا پاسخهای تحریکآمیز را فریب دهند، یک «مورد استفاده جدید برای چت» است.
مایکروسافت از زمان راه اندازی چندین تغییر در هوش مصنوعی ایجاد کرده است، از جمله کاهش قابل توجه طول مکالمات. این تلاشی برای محدود کردن انواع پاسخهایی است که در روزهایی که مایکروسافت برای اولین بار بینگ چت را معرفی کرد، دیدهایم. مایکروسافت می گوید در حال حاضر روی افزایش محدودیت های چت کار می کند.
در حالی که داستان آزمایش بینگ چت توسط مایکروسافت همچنان در هوا باقی مانده است، واضح است که هوش مصنوعی برای مدتی در برنامه ریزی بوده است. مایکروسافت در اوایل سال جاری به دنبال موفقیت ChatGPT، سرمایهگذاری چند میلیارد دلاری در OpenAI انجام داد و خود بینگ چت بر اساس نسخه اصلاح شده مدل GPT این شرکت ساخته شده است. علاوه بر این، مایکروسافت چند روز قبل از اعلام بینگ چت به جهان درباره «هوش مصنوعی مسئول» وبلاگی منتشر کرد.
چندین سؤال اخلاقی در مورد هوش مصنوعی و استفاده از آن در موتور جستجویی مانند بینگ وجود دارد، همچنین این احتمال وجود دارد که مایکروسافت قبل از آماده شدن Bing Chat و دانستن توانایی هایش، آن را لغو کند. پست پشتیبانی مورد نظر آخرین بار در 21 فوریه 2023 بهروزرسانی شد، اما سابقه سؤال و پاسخهای اصلی نشان میدهد که از تاریخ ارسال اولیه اصلاح نشدهاند.
این امکان وجود دارد که مایکروسافت تصمیم بگیرد که با احساس فشار ناشی از Google Bard آینده و افزایش محبوبیت ChatGPT، به سمت جلو حرکت کند.
توصیه های سردبیران