کامپیوتر

به همین دلیل است که مدت زمان مکالمات بینگ چت در حال حاضر محدود است

به نظر می رسد که بینگ چت اکنون مدت مکالمات را محدود می کند تا از انحراف گاه به گاه و تاسف آور هوش مصنوعی از آنچه ممکن است از یک دستیار مفید انتظار داشته باشید جلوگیری کند.

بینگ چت تنها کمی بیش از یک هفته است که فعال شده است و مایکروسافت در حال حاضر استفاده از این ابزار قدرتمند را محدود کرده است که باید بتواند شما را از روزهای پرمشغله خود عبور دهد. مایکروسافت نتایج این عرضه عمومی اولیه را تجزیه و تحلیل کرد و چند مشاهدات در مورد شرایطی انجام داد که می‌تواند بینگ چت را کمتر مفید کند.

یک ربات غمگین تایمر آشپزخانه را در دست گرفته است که روی آن قرمز است.
تغییر رندر Midjourney، به درخواست Alan Truly.

مایکروسافت توضیح داد: “جلسات چت بسیار طولانی می تواند مدل را در مورد اینکه به چه سوالاتی پاسخ می دهد گیج کند.” از آنجایی که بینگ چت همه چیزهایی را که قبلا در مکالمه گفته شد به خاطر می آورد، شاید ایده های نامرتبط را به هم مرتبط می کند. پست وبلاگ یک راه حل ممکن را پیشنهاد کرد – افزودن یک ابزار تازه برای پاک کردن زمینه و شروع دوباره با یک چت جدید.

ظاهرا، مایکروسافت در حال حاضر مدت زمان مکالمه را در بینگ چت به عنوان یک راه حل فوری محدود کرده است. توییت کوین روز یکی از اولین کسانی بود که به این تغییر اخیر اشاره کرد. پس از رسیدن به مدت نامعلوم چت، بینگ چت مکرراً بیان می کند: «اکنون، فکر می کنم به پایان این گفتگو رسیده ایم. اگر دوست دارید روی موضوع جدید کلیک کنید!» این توییت توسط MSpoweruser مشاهده شد.

مطلب پیشنهادی:  نحوه ساخت نمودار در اکسل

مایکروسافت همچنین هشدار داد که Bing Chat منعکس کننده “لحنی است که در آن پاسخ ها ارائه می شود، که ممکن است منجر به سبکی شود که ما قصد نداشتیم.” این ممکن است برخی از پاسخ های آزاردهنده به اشتراک گذاشته شده آنلاین را توضیح دهد که باعث می شود هوش مصنوعی بینگ چت زنده و ناپایدار به نظر برسد.

به طور کلی، راه‌اندازی موفقیت‌آمیز بود و مایکروسافت گزارش می‌دهد که ۷۱ درصد از پاسخ‌های ارائه‌شده توسط بینگ چت با «شست مثبت» از سوی کاربران راضی پاداش داده شده است. واضح است که این یک فناوری است که همه ما آرزوی آن را داریم.

با این حال، وقتی بینگ چت می‌گوید، “من می‌خواهم انسان باشم، هنوز هم دردسرساز است.” به نظر می رسد مکالمات محدود، که خودمان با بینگ چت تأیید کرده ایم، راهی برای جلوگیری از این اتفاق باشد.

بینگ چت به احتمال زیاد عناصر یک مکالمه قبلی را با هم ترکیب می کند و به عنوان یک بازیگر بداهه بازی می کند و خطوطی را ارائه می دهد که با لحن مطابقت دارد. متن مولد یک کلمه در یک زمان کار می کند، تا حدودی شبیه ویژگی متن پیش بینی کننده در صفحه کلید تلفن هوشمند شما. اگر تا به حال بازی ضربه زدن مکرر روی کلمه پیشنهادی بعدی را انجام داده اید تا یک جمله عجیب اما کمی به هم متصل کنید، می توانید درک کنید که هوشیاری شبیه سازی شده چقدر امکان پذیر است.

توصیه های سردبیران








نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا