تکنولوژی

گس لایت، بمب گذاری عشقی و خودشیفتگی: چرا چت ربات مایکروسافت بینگ اینقدر درمانده است؟

مسابقه ای برای تغییر تقاضا وجود دارد. و مایکروسافت به تازگی با چت ربات جستجوی بینگ جدید خود، سیدنی، موفق به کسب رتبه اول شده است و در میان سایر نتایج نگران‌کننده، کاربران اولیه را با تهدید به مرگ وحشت زده می‌کند.

ربات‌های گفتگوی جستجو ابزارهای مبتنی بر هوش مصنوعی هستند که در موتورهای جستجو ساخته شده‌اند و به‌جای ارائه پیوندهایی به پاسخ احتمالی، مستقیماً به درخواست کاربر پاسخ می‌دهند. کاربران همچنین می توانند گفتگوهای مداوم با آنها داشته باشند.

آنها قول می دهند که جستجو را ساده کنند. دیگر نیازی به جستجو در صفحات نتایج، پنهان کردن تبلیغات نیست، در حالی که سعی می کنید پاسخی برای سوال خود جمع آوری کنید. در عوض، ربات چت پاسخی قابل باور را برای شما ترکیب می کند. برای مثال می توانید برای تولد 90 سالگی مادربزرگتان شعری به سبک پام آیرس بخواهید و در ازای آن یک بیت طنز دریافت کنید.

مایکروسافت اکنون با سیدنی در رقابت چت بات های جستجو پیشتاز است (هرچند استقبال از آن متفاوت بوده است). مشارکت 10 میلیارد دلاری غول فناوری با OpenAI به آن امکان دسترسی انحصاری به ChatGPT، یکی از جدیدترین و بهترین چت بات ها را می دهد.

پس چرا همه چیز طبق برنامه پیش نمی رود؟

هوش مصنوعی بینگ دیوانه می شود

در اوایل این ماه، مایکروسافت اعلام کرد که ChatGPT را در بینگ گنجانده است و «سیدنی» را به وجود آورده است. در عرض 48 ساعت از راه اندازی، یک میلیون نفر به لیست انتظار پیوستند تا آن را امتحان کنند.

گوگل با اعلامیه ای از خود پاسخ داد و یک چت بات جستجو به نام “Bard” را در ادای احترام به بزرگترین نویسنده زبان انگلیسی به نمایش گذاشت. دمو گوگل یک فاجعه روابط عمومی بود.

مطلب پیشنهادی:  5 چیز در مورد هوش مصنوعی که ممکن است امروز از دست داده باشید: شریک ایمنی هوش مصنوعی بریتانیا و بریتانیا، ساچین بانسال درباره هوش مصنوعی و موارد دیگر صحبت می کند.

در یک رویداد شرکت، بارد به یک سوال پاسخ اشتباه داد و قیمت سهام شرکت مادر گوگل، آلفابت، به شدت کاهش یافت. این حادثه بیش از 100 میلیارد دلار از ارزش کل شرکت را از بین برد.

از سوی دیگر، همه چیز برای مایکروسافت خوب به نظر می رسید. این تا زمانی بود که اولین کاربران سیدنی شروع به گزارش تجربیات خود کردند.

مواقعی وجود دارد که یک ربات چت را فقط می توان به عنوان مجرد توصیف کرد. این بدان معنا نیست که در زمان‌های دیگر کاملاً کار نمی‌کند، اما هر از گاهی جنبه‌ی نگران‌کننده‌ای را نشان می‌دهد.

در یک مثال، یک استاد دانشگاه ملی استرالیا را تهدید به کشتن کرد. در دیگری، به روزنامه‌نگار نیویورک تایمز پیشنهاد ازدواج می‌دهد و سعی می‌کند ازدواج او را به هم بزند. همچنین سعی کرد کاربر را فریب دهد تا فکر کند هنوز سال 2022 است.

این یک مشکل اساسی را با چت بات ها آشکار می کند: آنها با ریختن بخش قابل توجهی از اینترنت در یک شبکه عصبی بزرگ آموزش می بینند. این می تواند شامل تمام ویکی پدیا، همه ردیت و بسیاری از رسانه های اجتماعی و اخبار باشد.

آنها مانند تکمیل خودکار تلفن شما عمل می کنند و به پیش بینی کلمه بعدی در یک جمله کمک می کنند. چت بات ها به دلیل مقیاسشان می توانند کل جملات و حتی پاراگراف ها را کامل کنند. اما آنها همچنان با آنچه محتمل است پاسخ می دهند، نه آنچه که درست است.

نرده‌های محافظ برای جلوگیری از ظاهر شدن محتوای توهین‌آمیز یا غیرقانونی در فضای مجازی اضافه می‌شوند – اما پرش از روی این نرده‌ها آسان است. در واقع، چت بات بینگ با خوشحالی نشان می دهد که نام آن سیدنی است، حتی اگر برخلاف قوانینی باشد که با آن برنامه ریزی شده است.

مطلب پیشنهادی:  اپل فروش بین المللی را متزلزل خواهد کرد تا هند را منطقه خود کند

قانون دیگری که خود هوش مصنوعی فاش کرد، اگرچه مجبور نبود، این است که باید از مبهم، بحث برانگیز یا خارج از موضوع خودداری شود. با این حال، کوین روز، روزنامه‌نگار نیویورک تایمز که چت‌بات می‌خواست با او ازدواج کند، او را نوجوانی متفکر و شیدایی-افسرده توصیف کرد که برخلاف میل خود در یک موتور جستجوی درجه دو به دام افتاده است.

چرا این همه ترس؟

تئوری من در مورد اینکه چرا سیدنی ممکن است اینگونه رفتار کند – و تکرار می کنم این فقط یک نظریه است زیرا ما به طور قطع نمی دانیم – این است که سیدنی ممکن است بر روی ربات چت GPT-3 OpenAI (که به ChatGPT محبوب قدرت می دهد) ساخته شود. ) . بلکه ممکن است بر روی GPT-4 که ​​هنوز منتشر نشده است ساخته شود.

تخمین زده می شود که GPT-4 دارای 100 تریلیون پارامتر در مقایسه با تنها 175 میلیارد پارامتر GPT-3 باشد. به این ترتیب، GPT-4 به احتمال زیاد توانایی بسیار بیشتری دارد و در نتیجه، توانایی بیشتری در اختراع چیزها دارد.

با کمال تعجب، مایکروسافت با نگرانی چندانی واکنش نشان نداد. او وبلاگی را منتشر کرد که نشان می‌داد چگونه 71 درصد از کاربران اولیه سیدنی در 169 کشور به چت ربات استقبال کردند. به نظر می رسد که 71 درصد از نظر مایکروسافت به اندازه کافی خوب است.

و برخلاف گوگل، قیمت سهام مایکروسافت هنوز سقوط نکرده است. این نشان دهنده بازی در اینجا است. گوگل برای مدت طولانی در خط مقدم این فضا بوده است که کاربران انتظارات زیادی را ایجاد کرده اند. گوگل فقط می تواند پایین بیاید و مایکروسافت بالا رود.

مطلب پیشنهادی:  اکنون برای مأموریت DART ناسا برای کوبیدن یک فضاپیما به یک سیارک اقدام کنید. مهلت 15 آگوست

علیرغم رفتار مشکل‌ساز سیدنی، مایکروسافت از توجه بی‌سابقه‌ای بهره می‌برد و کاربران (متعصب یا غیرمعمول) همچنان برای امتحان سیدنی هجوم می‌آورند.

وقتی تازگی از بین می رود

یک بازی بسیار بزرگتر دیگر در راه است – و آن چیزی است که ما به عنوان حقیقت می پذیریم. اگر چت ربات های جستجو از کار بیفتند (که به نظر من محتمل است) اما به عملکرد سیدنی تا کنون ادامه دهند (که به نظر من نیز محتمل است)، “حقیقت” به مفهومی حتی ناملموس تر تبدیل خواهد شد.

اینترنت پر از اخبار جعلی، تئوری های توطئه و اطلاعات نادرست است. یک جستجوی استاندارد در گوگل حداقل به ما فرصتی می دهد تا به حقیقت دست پیدا کنیم. اگر دیگر نتوان به موتورهای جستجوی “معتمد” ما اعتماد کرد، چه اتفاقی برای ما خواهد افتاد؟

فراتر از آن، پاسخ های سیدنی نمی تواند تصاویری از Tay، ربات چت هوش مصنوعی مایکروسافت در سال 2016 را که در عرض یک روز پس از راه اندازی به نژادپرستی و بیگانه هراسی تبدیل شد، ایجاد کند. مردم روزهای میدانی را با تای سپری کردند و در پاسخ به نظر می رسید که او برخی از بدترین جنبه های انسان را در درون خود تجسم می بخشد.

فناوری جدید نباید در درجه اول به مردم آسیب برساند. مدل‌هایی که زیربنای چت‌بات‌ها هستند، می‌توانند بزرگ‌تر و بزرگ‌تر شوند، با استفاده از داده‌های بیشتر و بیشتر – اما این به تنهایی باعث بهبود عملکرد آنها نمی‌شود. سخت است که بگوییم اگر نتوانیم MELB را برای ساختن نرده ها بالاتر ببریم، به کجا می رسیم.


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا