تکنولوژی

مایکروسافت محدودیت گردش چت Bing AI را در هر جلسه افزایش می دهد

کمتر از یک هفته پس از اعمال محدودیت‌های جستجو بر روی نسخه هوش مصنوعی موتور جستجوی Bing، مایکروسافت این محدودیت‌ها را افزایش می‌دهد.

در پی برخی گزارش‌های نگران‌کننده از رفتار نامنظم در بینگ جدید، مایکروسافت جمعه گذشته تصمیم گرفت استفاده روزانه کاربر را به پنج “چرخش” چت در هر جلسه و 50 چرخش در روز محدود کند.

این خط شامل یک سوال از یک کاربر و یک پاسخ از Bing است. پس از انجام پنج نوبت، از کاربران خواسته می شود موضوع مکالمه خود را با هوش مصنوعی تغییر دهند.

این شرکت در وبلاگ بینگ توضیح داد که این تغییرات ضروری بودند زیرا مدل زیربنایی هوش مصنوعی مورد استفاده توسط بینگ جدید را می توان با جلسات چت طولانی که از چندین حرکت تشکیل شده است، اشتباه گرفت.

با این حال، روز سه‌شنبه، پس از سروصدای کاربران بینگ، مایکروسافت محدودیت‌های استفاده را به ۶ چرخش در هر جلسه و ۶۰ چرخش در روز افزایش داد.

وبلاگ شرکت گفته است که محدودیت های جدید به اکثریت قریب به اتفاق کاربران این امکان را می دهد که از بینگ جدید به صورت بومی استفاده کنند.

وی افزود: با این حال، ما قصد داریم بیشتر از این پیش برویم و قصد داریم به زودی سقف روزانه را به 100 چت افزایش دهیم.

او ادامه می دهد: «همچنین، با این تغییر آتی، جستجوهای معمولی شما دیگر در کل چت شما حساب نمی شود.»

مشارکت جمعیت الزامی است

مایکروسافت پس از اینکه برخی از کاربران راه‌هایی را یافتند تا موتور جستجو را به دشمن خطاب کند و حتی اشتباهاتی را که مرتکب شده است، مانند نام مدیر عامل توییتر، دوچندان کند، تصمیم گرفته است محدودیت‌هایی را برای استفاده از بینگ مبتنی بر هوش مصنوعی اعمال کند.

مطلب پیشنهادی:  یوتیوب سیاست اطلاعات نادرست انتخابات 2020 ایالات متحده را حذف می کند

“[W]مایکروسافت اذعان کرد که در جلسات چت طولانی و طولانی با 15 سؤال یا بیشتر، بینگ می تواند تکراری شود یا از او خواسته شود که پاسخ هایی بدهد که لزوماً مفید یا مطابق با لحن ما نیست. پست وبلاگ.

با محدودیت های جدید در استفاده از هوش مصنوعی بینگ، این شرکت ممکن است چیز دیگری را اعتراف کند. گرگ استرلینگ، یکی از بنیانگذاران Near Media، یک وب‌سایت خبری، تفسیری و تحلیلی، به دیجیتال تو گفت: «این نشان می‌دهد که آن‌ها به اندازه کافی برخی از واکنش‌ها و پیچش‌هایی را که این اتفاق رخ داد پیش‌بینی نکرده‌اند.


جیسون وانگ، معاون و تحلیلگر گارتنر می‌گوید: «علیرغم داستان‌های ترسناکی که درباره بینگ جدید نوشته شده است، بهره‌وری زیادی با آن به دست آمده است که نشان‌دهنده کاربرد چنین ابزاری در سناریوهای محتوایی خاص است.

وونگ به دیجیتال تو گفت: «برای بسیاری از شرکت‌های نرم‌افزاری، تا زمانی که نرم‌افزار خود را به صورت عمومی منتشر نکنید، نمی‌دانید چه چیزی به دست خواهید آورد.

او گفت: «شما می توانید انواع آزمایش ها را انجام دهید. می‌توانید از تیم‌ها بخواهید که تست استرس را روی آن انجام دهند. اما تا زمانی که جمعیت به آن نرسند، نمی‌دانید چه چیزی دارید. سپس، امیدوارم بتوانید خردی را از جمعیت تشخیص دهید.

وونگ به درسی که از رید هافمن، بنیانگذار لینکدین آموخته است، اشاره می کند: «اگر در مورد اولین نسخه محصول خود عصبی نیستید، پس خیلی دیر راه اندازی کرده اید».

آیا گوگل با برد خیلی محتاط است؟

تصمیم مایکروسافت برای راه‌اندازی وسیله‌ای برای جستجوی هوش مصنوعی با زگیل‌های احتمالی با رویکرد محتاطانه‌تر گوگل با محصول جستجوی هوش مصنوعی Bard خود در تضاد است.

استرلینگ توضیح داد: «بینگ و گوگل در موقعیت‌های متفاوتی قرار دارند. بینگ باید ریسک بیشتری بکند. گوگل چیزهای زیادی برای از دست دادن دارد و در نتیجه محتاط تر خواهد بود.”

مطلب پیشنهادی:  تاریخی! Amazon Prime Day Sale فروش آنلاین را با 8.5 درصد افزایش به 12 میلیارد دلار رساند

اما آیا گوگل بیش از حد محتاط است؟ ویل دافیلد، تحلیلگر سیاست در مؤسسه کاتو، خاطرنشان کرد: این بستگی به نوع خرگوشی دارد که در کلاه خود دارند.

دافیلد به دیجیتال تو گفت: «شما فقط زمانی خیلی محتاط هستید که یک خرگوش واقعاً خوب داشته باشید و آن را رها نکنید. “اگر خرگوش شما آماده نیست، هیچ چیز محتاطانه ای در مورد نگهداری او وجود ندارد.”

«اگر چیز خوبی داشته باشند و آن را منتشر کنند، شاید مردم بگویند باید ماه‌ها پیش آن را منتشر می‌کردند. اما شاید ماه‌های پیش چندان خوب نبود.»

تهدیدی برای کارگران

مایکروسافت همچنین در وبلاگ خود پست کرد که آزمایش گزینه‌ای را برای هوش مصنوعی Bing آغاز خواهد کرد که به کاربر اجازه می‌دهد لحن چت را از «دقیق» انتخاب کند – که از فناوری هوش مصنوعی مایکروسافت برای تمرکز بر پاسخ‌های کوتاه‌تر و متمرکز بر جستجو استفاده می‌کند. – به “متعادل” و “خلاق” – که از ChatGPT برای دادن پاسخ های مکالمه طولانی تر و بیشتر به کاربر استفاده می کند.


این شرکت توضیح داد که هدف این است که به کاربران کنترل بیشتری بر نوع رفتار چت بدهد تا نیازهای آنها را به بهترین شکل برآورده کند.

استرلینگ خاطرنشان کرد: انتخاب در انتزاع خوب است. با این حال، در این روزهای اولیه ممکن است کیفیت پاسخ‌های ChatGPT به اندازه کافی بالا نباشد.

او گفت: “بنابراین تا زمانی که نرده ها تقویت نشود و دقت ChatGPT بهبود یابد، ممکن است چیز خوبی نباشد.” بینگ باید انتظارات را مدیریت کند و محتوای ChatGPT را تا حدی رد کند.

مطلب پیشنهادی:  یک میلیارد کاربر، اما مشکلات TikTok در حال افزایش است

در همین راستا، نظرسنجی از 1000 رهبر تجاری که روز سه‌شنبه توسط Resume Builder منتشر شد، نشان داد که 49 درصد از شرکت‌های آنها از ChatGPT استفاده می‌کنند. 30 درصد برنامه دارند و از شرکت هایی که از فناوری هوش مصنوعی استفاده می کنند، 48 درصد می گویند که جایگزین کارگران شده اند. نمودارهای زیر اطلاعات بیشتری را در مورد نحوه استفاده شرکت ها از ChatGPT نشان می دهد.

کمک خلبان انسان

استرلینگ نسبت به کارگران شیفتی که در این مطالعه یافت شدند بدبین بود. “من فکر می کنم بسیاری از شرکت ها در حال آزمایش آن هستند. بنابراین، از این نظر، شرکت‌ها از آن استفاده می‌کنند.

او ادامه داد: «و برخی از شرکت‌ها ممکن است راه‌هایی را تشخیص دهند که می‌توانند در زمان یا پول صرفه‌جویی کنند و به طور بالقوه جایگزین کار دستی یا برون‌سپاری شوند». اما نتایج نظرسنجی فاقد زمینه است و تنها اطلاعات جزئی را ارائه می دهد.

با این حال، او اذعان کرد که مدل‌های استخدام و فریلنسر در طول زمان به دلیل هوش مصنوعی تغییر خواهند کرد.

وونگ فکر می‌کند تعداد کسب‌وکارهایی که از ChatGPT استفاده می‌کنند تعجب‌آور نیست، اما تعداد جایگزین‌ها هم نیست.

او گفت: «می‌توانم ببینم که کسی نمی‌تواند برای یک برنامه یا به‌روزرسانی پورتال اسناد بنویسد، اما برای تنزل دادن یا حذف افراد از یک نقش به دلیل استفاده از ChatGPT، باورش برایم سخت است.»

او ادامه داد: “توصیه گارتنر به مشتریانی که در حال بررسی ChatGPT و چت بینگ هستند این است که آنها را به عنوان کمک خلبان در نظر بگیرند.” “این به ایجاد چیزی کمک می کند که باید توسط یک انسان بازبینی شود، توسط کسی که اعتبار یک پاسخ را ارزیابی کند.”

وی در پایان گفت: تنها در تعداد کمی از موارد استفاده می توانند جایگزین انسان شوند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا