مایکروسافت محدودیت گردش چت Bing AI را در هر جلسه افزایش می دهد
کمتر از یک هفته پس از اعمال محدودیتهای جستجو بر روی نسخه هوش مصنوعی موتور جستجوی Bing، مایکروسافت این محدودیتها را افزایش میدهد.
در پی برخی گزارشهای نگرانکننده از رفتار نامنظم در بینگ جدید، مایکروسافت جمعه گذشته تصمیم گرفت استفاده روزانه کاربر را به پنج “چرخش” چت در هر جلسه و 50 چرخش در روز محدود کند.
این خط شامل یک سوال از یک کاربر و یک پاسخ از Bing است. پس از انجام پنج نوبت، از کاربران خواسته می شود موضوع مکالمه خود را با هوش مصنوعی تغییر دهند.
این شرکت در وبلاگ بینگ توضیح داد که این تغییرات ضروری بودند زیرا مدل زیربنایی هوش مصنوعی مورد استفاده توسط بینگ جدید را می توان با جلسات چت طولانی که از چندین حرکت تشکیل شده است، اشتباه گرفت.
با این حال، روز سهشنبه، پس از سروصدای کاربران بینگ، مایکروسافت محدودیتهای استفاده را به ۶ چرخش در هر جلسه و ۶۰ چرخش در روز افزایش داد.
وبلاگ شرکت گفته است که محدودیت های جدید به اکثریت قریب به اتفاق کاربران این امکان را می دهد که از بینگ جدید به صورت بومی استفاده کنند.
وی افزود: با این حال، ما قصد داریم بیشتر از این پیش برویم و قصد داریم به زودی سقف روزانه را به 100 چت افزایش دهیم.
او ادامه می دهد: «همچنین، با این تغییر آتی، جستجوهای معمولی شما دیگر در کل چت شما حساب نمی شود.»
مشارکت جمعیت الزامی است
مایکروسافت پس از اینکه برخی از کاربران راههایی را یافتند تا موتور جستجو را به دشمن خطاب کند و حتی اشتباهاتی را که مرتکب شده است، مانند نام مدیر عامل توییتر، دوچندان کند، تصمیم گرفته است محدودیتهایی را برای استفاده از بینگ مبتنی بر هوش مصنوعی اعمال کند.
“[W]مایکروسافت اذعان کرد که در جلسات چت طولانی و طولانی با 15 سؤال یا بیشتر، بینگ می تواند تکراری شود یا از او خواسته شود که پاسخ هایی بدهد که لزوماً مفید یا مطابق با لحن ما نیست. پست وبلاگ.
با محدودیت های جدید در استفاده از هوش مصنوعی بینگ، این شرکت ممکن است چیز دیگری را اعتراف کند. گرگ استرلینگ، یکی از بنیانگذاران Near Media، یک وبسایت خبری، تفسیری و تحلیلی، به دیجیتال تو گفت: «این نشان میدهد که آنها به اندازه کافی برخی از واکنشها و پیچشهایی را که این اتفاق رخ داد پیشبینی نکردهاند.
جیسون وانگ، معاون و تحلیلگر گارتنر میگوید: «علیرغم داستانهای ترسناکی که درباره بینگ جدید نوشته شده است، بهرهوری زیادی با آن به دست آمده است که نشاندهنده کاربرد چنین ابزاری در سناریوهای محتوایی خاص است.
وونگ به دیجیتال تو گفت: «برای بسیاری از شرکتهای نرمافزاری، تا زمانی که نرمافزار خود را به صورت عمومی منتشر نکنید، نمیدانید چه چیزی به دست خواهید آورد.
او گفت: «شما می توانید انواع آزمایش ها را انجام دهید. میتوانید از تیمها بخواهید که تست استرس را روی آن انجام دهند. اما تا زمانی که جمعیت به آن نرسند، نمیدانید چه چیزی دارید. سپس، امیدوارم بتوانید خردی را از جمعیت تشخیص دهید.
وونگ به درسی که از رید هافمن، بنیانگذار لینکدین آموخته است، اشاره می کند: «اگر در مورد اولین نسخه محصول خود عصبی نیستید، پس خیلی دیر راه اندازی کرده اید».
آیا گوگل با برد خیلی محتاط است؟
تصمیم مایکروسافت برای راهاندازی وسیلهای برای جستجوی هوش مصنوعی با زگیلهای احتمالی با رویکرد محتاطانهتر گوگل با محصول جستجوی هوش مصنوعی Bard خود در تضاد است.
استرلینگ توضیح داد: «بینگ و گوگل در موقعیتهای متفاوتی قرار دارند. بینگ باید ریسک بیشتری بکند. گوگل چیزهای زیادی برای از دست دادن دارد و در نتیجه محتاط تر خواهد بود.”
اما آیا گوگل بیش از حد محتاط است؟ ویل دافیلد، تحلیلگر سیاست در مؤسسه کاتو، خاطرنشان کرد: این بستگی به نوع خرگوشی دارد که در کلاه خود دارند.
دافیلد به دیجیتال تو گفت: «شما فقط زمانی خیلی محتاط هستید که یک خرگوش واقعاً خوب داشته باشید و آن را رها نکنید. “اگر خرگوش شما آماده نیست، هیچ چیز محتاطانه ای در مورد نگهداری او وجود ندارد.”
«اگر چیز خوبی داشته باشند و آن را منتشر کنند، شاید مردم بگویند باید ماهها پیش آن را منتشر میکردند. اما شاید ماههای پیش چندان خوب نبود.»
تهدیدی برای کارگران
مایکروسافت همچنین در وبلاگ خود پست کرد که آزمایش گزینهای را برای هوش مصنوعی Bing آغاز خواهد کرد که به کاربر اجازه میدهد لحن چت را از «دقیق» انتخاب کند – که از فناوری هوش مصنوعی مایکروسافت برای تمرکز بر پاسخهای کوتاهتر و متمرکز بر جستجو استفاده میکند. – به “متعادل” و “خلاق” – که از ChatGPT برای دادن پاسخ های مکالمه طولانی تر و بیشتر به کاربر استفاده می کند.
این شرکت توضیح داد که هدف این است که به کاربران کنترل بیشتری بر نوع رفتار چت بدهد تا نیازهای آنها را به بهترین شکل برآورده کند.
استرلینگ خاطرنشان کرد: انتخاب در انتزاع خوب است. با این حال، در این روزهای اولیه ممکن است کیفیت پاسخهای ChatGPT به اندازه کافی بالا نباشد.
او گفت: “بنابراین تا زمانی که نرده ها تقویت نشود و دقت ChatGPT بهبود یابد، ممکن است چیز خوبی نباشد.” بینگ باید انتظارات را مدیریت کند و محتوای ChatGPT را تا حدی رد کند.
در همین راستا، نظرسنجی از 1000 رهبر تجاری که روز سهشنبه توسط Resume Builder منتشر شد، نشان داد که 49 درصد از شرکتهای آنها از ChatGPT استفاده میکنند. 30 درصد برنامه دارند و از شرکت هایی که از فناوری هوش مصنوعی استفاده می کنند، 48 درصد می گویند که جایگزین کارگران شده اند. نمودارهای زیر اطلاعات بیشتری را در مورد نحوه استفاده شرکت ها از ChatGPT نشان می دهد.
کمک خلبان انسان
استرلینگ نسبت به کارگران شیفتی که در این مطالعه یافت شدند بدبین بود. “من فکر می کنم بسیاری از شرکت ها در حال آزمایش آن هستند. بنابراین، از این نظر، شرکتها از آن استفاده میکنند.
او ادامه داد: «و برخی از شرکتها ممکن است راههایی را تشخیص دهند که میتوانند در زمان یا پول صرفهجویی کنند و به طور بالقوه جایگزین کار دستی یا برونسپاری شوند». اما نتایج نظرسنجی فاقد زمینه است و تنها اطلاعات جزئی را ارائه می دهد.
با این حال، او اذعان کرد که مدلهای استخدام و فریلنسر در طول زمان به دلیل هوش مصنوعی تغییر خواهند کرد.
وونگ فکر میکند تعداد کسبوکارهایی که از ChatGPT استفاده میکنند تعجبآور نیست، اما تعداد جایگزینها هم نیست.
او گفت: «میتوانم ببینم که کسی نمیتواند برای یک برنامه یا بهروزرسانی پورتال اسناد بنویسد، اما برای تنزل دادن یا حذف افراد از یک نقش به دلیل استفاده از ChatGPT، باورش برایم سخت است.»
او ادامه داد: “توصیه گارتنر به مشتریانی که در حال بررسی ChatGPT و چت بینگ هستند این است که آنها را به عنوان کمک خلبان در نظر بگیرند.” “این به ایجاد چیزی کمک می کند که باید توسط یک انسان بازبینی شود، توسط کسی که اعتبار یک پاسخ را ارزیابی کند.”
وی در پایان گفت: تنها در تعداد کمی از موارد استفاده می توانند جایگزین انسان شوند.