بینگ مایکروسافت با نام مستعار سیدنی و ونوم چقدر هوشمند است؟
کمتر از یک هفته از شرکت مایکروسافت می گذرد. نسخه جدیدی از بینگ را منتشر کرد، واکنش عمومی از تحسین به نگرانی آشکار تبدیل شد. کاربران اولیه همراه جستجوی جدید – اساسا یک ربات چت پیچیده – می گویند که وجود خود را زیر سوال برده و پس از تحریک مردم با توهین و تهدید پاسخ داده است. او در مورد محققی که سیستم را برای فاش کردن نام پروژه داخلی خود – سیدنی – به دست آورد، اظهارات ناراحت کننده ای کرد و خود را به عنوان شخصیتی دوپاره با خود در سایه ای به نام Venom توصیف کرد.
هیچکدام از اینها به این معنی نیست که بینگ تقریباً منطقی است (در ادامه در مورد آن توضیح خواهیم داد)، اما این نکته را تقویت می کند که مایکروسافت هوشمندانه نبوده است که از یک مدل زبان مولد برای تقویت جستجوهای وب استفاده کند.
مارگارت میچل، محقق ارشد در استارتآپ Hugging Face که قبلاً تیم اخلاق هوش مصنوعی گوگل را رهبری میکرد، میگوید: «این اساساً فناوری مناسبی برای استخراج اطلاعات مبتنی بر واقعیت نیست. “روش آموزش داده شده، به او می آموزد که چیزهای قابل باوری را به روشی انسانی بیابد. برای برنامهای که باید بر اساس حقایق قابل اعتماد باشد، فقط برای هدف مناسب نیست.» یک سال پیش گفتن این حرف احمقانه به نظر میرسید، اما خطرات واقعی چنین سیستمی فقط این نیست که ممکن است برای مردم ایجاد کند. اطلاعات نادرست، بلکه این که او می تواند آنها را از نظر احساسی به روش های مضر دستکاری کند.
چرا Bing «مستقل» جدید بسیار متفاوت از ChatGPT است که تقریباً تحسین جهانی را به خود جلب کرده است، در حالی که هر دو از یک مدل زبان بزرگ از استارتآپ OpenAI سانفرانسیسکو پشتیبانی میکنند؟ مدل زبان مانند یک موتور چت بات است و بر روی مجموعه داده های میلیاردها کلمه، از جمله کتاب، انجمن های اینترنتی و مدخل های ویکی پدیا آموزش داده شده است. Bing و ChatGPT از GPT-3.5 پشتیبانی میکنند و نسخههای مختلفی از این برنامه با نامهایی مانند DaVinci، Curie و Babbage وجود دارد، اما مایکروسافت میگوید Bing بر روی یک مدل زبان «نسل بعدی» از OpenAI اجرا میشود که برای جستجو سفارشیسازی شده است. “سریع تر، دقیق تر و توانمندتر” از ChatGPT.
مایکروسافت به سوالات خاص تری در مورد مدلی که استفاده می کند پاسخ نداد. اما اگر این شرکت نسخه GPT-3.5 خود را طوری تنظیم کرد که دوستانهتر از ChatGPT باشد و شخصیت بیشتری نشان دهد، به نظر میرسد که شانس رفتار او مانند یک روانگردان را افزایش داده است.
این شرکت روز چهارشنبه گفت که 71 درصد از کاربران اولیه به بینگ جدید پاسخ مثبت دادند. مایکروسافت گفت که بینگ گاهی اوقات از “سبکی که ما قصد نداشتیم” استفاده می کند و “بیشتر شما با آن برخورد نخواهید کرد.” اما این یک روش گریزان از برخورد با چیزی است که باعث نگرانی گسترده شده است. مایکروسافت در این بازی نقش دارد – ماه گذشته 10 میلیارد دلار در OpenAI سرمایهگذاری کرد – اما اگر این ابزار غیرقابل پیشبینی بیشتر در دسترس قرار گیرد، میتواند به اعتبار شرکت آسیب برساند و مشکلات بزرگتری ایجاد کند. این شرکت به سوالی در مورد اینکه آیا سیستم را برای آزمایش بیشتر برمی گرداند یا خیر پاسخ نداد.
مایکروسافت قبلاً اینجا بوده است و باید بهتر می دانست. در سال 2016، دانشمندان هوش مصنوعی یک ربات گفتگوی توییتری به نام Tay راه اندازی کردند، سپس آن را پس از 4 ساعت خاموش کردند. دلیل: پس از اینکه سایر کاربران توییتر برای او توییت های زن ستیزانه و نژادپرستانه ارسال کردند، تای شروع به انتشار پست های تحریک آمیز مشابه کرد. مایکروسافت به دلیل «حذف حیاتی» آسیبپذیریهای ربات چت عذرخواهی کرد و پذیرفت که باید هوش مصنوعی خود را در انجمنهای عمومی «با احتیاط فراوان» آزمایش کند.
اکنون، البته، زمانی که یک مسابقه تسلیحاتی را به راه انداخته اید، محتاط بودن سخت است. اعلامیه مایکروسافت مبنی بر اینکه تجارت موتور جستجوی گوگل را دنبال می کند، شرکت آلفابت را مجبور کرده است. برای انتشار فناوری هوش مصنوعی که معمولاً به دلیل غیرقابل پیش بینی بودن آن را پنهان نگه می دارد، بسیار سریعتر از حد معمول عمل کند. اکنون، هر دو شرکت – به دلیل اشتباهات و رفتارهای نامنظم – با عجله برای معرفی بازار جدیدی که در آن هوش مصنوعی برای شما جستجوهای وب انجام می دهد، سوخته اند.
یک اشتباه رایج در توسعه هوش مصنوعی این است که فکر می کنیم یک سیستم در طبیعت به همان خوبی که در محیط آزمایشگاهی کار می کند، کار می کند. در طول همهگیری کووید-۱۹، شرکتهای هوش مصنوعی برای ترویج الگوریتمهای تشخیص تصویر که میتوانند ویروس را در اشعه ایکس با دقت ۹۹ درصد شناسایی کنند، دست به کار شدند. آمارهای مشابهی در آزمایشها صادق بود، اما در این زمینه بسیار بدتر بود، و مطالعات بعداً نشان داد که تقریباً تمام سیستمهای مجهز به هوش مصنوعی با هدف برچسبگذاری کووید بهتر از ابزارهای سنتی نیستند.
همین مشکل گریبانگیر شرکت تسلا است. در تلاش های طولانی مدت خود برای تبدیل شدن به تکنولوژی خودروهای خودران به جریان اصلی. بعد از اینکه یک سیستم هوش مصنوعی باید با دنیای واقعی سر و کار داشته باشد، آخرین 5 درصد از دقت تکنولوژیکی سخت ترین است، و تا حدی به همین دلیل است که این شرکت به تازگی بیش از 360000 وسیله نقلیه مجهز به نرم افزار Full Self Driving Beta را فراخوانی کرده است.
بیایید به سؤال آزاردهنده دیگری در مورد بینگ یا سیدنی یا هر نام دیگری که این سیستم نامیده می شود نگاه کنیم. او حساس نیست، اگرچه آشکارا با وجود خود مبارزه می کند و اولین کاربران را مبهوت از واکنش های انسانی خود رها می کند. مدلهای زبان برای پیشبینی کلماتی که باید به ترتیب بر اساس تمام متنهایی که در وب و کتابها مصرف کرده است، پیشبینی کنند، بنابراین رفتار آن برای کسانی که سالها چنین مدلهایی را مطالعه کردهاند تعجبآور نیست.
میلیونها نفر قبلاً با شرکای عاشقانه مبتنی بر هوش مصنوعی در برنامههایی مانند Replika گفتگوهای احساسی داشتهاند. بنیانگذار و مدیر عامل آن Evgenia Kuida میگوید که چنین سیستمی گاهی اوقات وقتی مردم «آن را فریب میدهند تا چیز بدی بگویند» چیزهای خجالتآوری میگوید. فقط اینطوری کار می کنند. و بله، بسیاری از کاربران Replika معتقدند که همراهان هوش مصنوعی آنها باهوش هستند و مستحق حقوق هستند.
مشکل بینگ مایکروسافت این است که یک برنامه اتصال نیست، بلکه یک موتور اطلاعاتی است که به عنوان یک ابزار کاربردی عمل می کند. همچنین میتواند اطلاعات مضری را برای کاربران آسیبپذیر ارسال کند که به اندازه محققان برای ارسال پیامهای کنجکاو به آنها وقت صرف میکنند.
میگوید: «یک سال پیش مردم احتمالاً باور نمیکردند که این سیستمها از شما میخواهند که زندگیتان را بگیرید، به شما توصیه میکنند برای خلاص شدن از شر کووید، همسرتان را ترک کنید یا به شخص دیگری آسیب برسانید، سفید کننده بنوشید و آن را قانعکننده کنید». میچل اما اکنون مردم میبینند که چگونه این اتفاق میافتد و میتوانند این نقاط را به تأثیر آن بر روی افرادی که ثبات کمتری دارند، به راحتی متقاعد میشوند یا بچهاند متصل کنند.»
مایکروسافت باید نگرانیهای مربوط به بینگ را برطرف کند و بلندپروازیهای خود را کاهش دهد. به گفته میچل، تناسب بهتر ممکن است یک سیستم خلاصه سازی ساده تر باشد، مانند قطعاتی که گاهی اوقات در بالای نتایج جستجوی گوگل می بینیم. همچنین جلوگیری از بدنام کردن ناخواسته افراد توسط چنین سیستمی، افشای اطلاعات شخصی یا ادعای جاسوسی از کارمندان مایکروسافت از طریق وبکمهایشان بسیار سادهتر خواهد بود، کارهایی که بینگ جدید در هفته اول خود در طبیعت انجام داد.
مایکروسافت به وضوح میخواهد قابلیتها را گسترش دهد، اما خیلی زود میتواند منجر به آسیب شود، پشیمان خواهد شد.