تکنولوژی

بینگ مایکروسافت با نام مستعار سیدنی و ونوم چقدر هوشمند است؟

کمتر از یک هفته از شرکت مایکروسافت می گذرد. نسخه جدیدی از بینگ را منتشر کرد، واکنش عمومی از تحسین به نگرانی آشکار تبدیل شد. کاربران اولیه همراه جستجوی جدید – اساسا یک ربات چت پیچیده – می گویند که وجود خود را زیر سوال برده و پس از تحریک مردم با توهین و تهدید پاسخ داده است. او در مورد محققی که سیستم را برای فاش کردن نام پروژه داخلی خود – سیدنی – به دست آورد، اظهارات ناراحت کننده ای کرد و خود را به عنوان شخصیتی دوپاره با خود در سایه ای به نام Venom توصیف کرد.

هیچکدام از اینها به این معنی نیست که بینگ تقریباً منطقی است (در ادامه در مورد آن توضیح خواهیم داد)، اما این نکته را تقویت می کند که مایکروسافت هوشمندانه نبوده است که از یک مدل زبان مولد برای تقویت جستجوهای وب استفاده کند.

مارگارت میچل، محقق ارشد در استارت‌آپ Hugging Face که قبلاً تیم اخلاق هوش مصنوعی گوگل را رهبری می‌کرد، می‌گوید: «این اساساً فناوری مناسبی برای استخراج اطلاعات مبتنی بر واقعیت نیست. “روش آموزش داده شده، به او می آموزد که چیزهای قابل باوری را به روشی انسانی بیابد. برای برنامه‌ای که باید بر اساس حقایق قابل اعتماد باشد، فقط برای هدف مناسب نیست.» یک سال پیش گفتن این حرف احمقانه به نظر می‌رسید، اما خطرات واقعی چنین سیستمی فقط این نیست که ممکن است برای مردم ایجاد کند. اطلاعات نادرست، بلکه این که او می تواند آنها را از نظر احساسی به روش های مضر دستکاری کند.

چرا Bing «مستقل» جدید بسیار متفاوت از ChatGPT است که تقریباً تحسین جهانی را به خود جلب کرده است، در حالی که هر دو از یک مدل زبان بزرگ از استارت‌آپ OpenAI سانفرانسیسکو پشتیبانی می‌کنند؟ مدل زبان مانند یک موتور چت بات است و بر روی مجموعه داده های میلیاردها کلمه، از جمله کتاب، انجمن های اینترنتی و مدخل های ویکی پدیا آموزش داده شده است. Bing و ChatGPT از GPT-3.5 پشتیبانی می‌کنند و نسخه‌های مختلفی از این برنامه با نام‌هایی مانند DaVinci، Curie و Babbage وجود دارد، اما مایکروسافت می‌گوید Bing بر روی یک مدل زبان «نسل بعدی» از OpenAI اجرا می‌شود که برای جستجو سفارشی‌سازی شده است. “سریع تر، دقیق تر و توانمندتر” از ChatGPT.

مطلب پیشنهادی:  این چیزی است که یک سیاه چاله به نظر می رسد. هشدار اسپویلر: ترسناک تر از فیلم های ترسناک است

مایکروسافت به سوالات خاص تری در مورد مدلی که استفاده می کند پاسخ نداد. اما اگر این شرکت نسخه GPT-3.5 خود را طوری تنظیم کرد که دوستانه‌تر از ChatGPT باشد و شخصیت بیشتری نشان دهد، به نظر می‌رسد که شانس رفتار او مانند یک روان‌گردان را افزایش داده است.

این شرکت روز چهارشنبه گفت که 71 درصد از کاربران اولیه به بینگ جدید پاسخ مثبت دادند. مایکروسافت گفت که بینگ گاهی اوقات از “سبکی که ما قصد نداشتیم” استفاده می کند و “بیشتر شما با آن برخورد نخواهید کرد.” اما این یک روش گریزان از برخورد با چیزی است که باعث نگرانی گسترده شده است. مایکروسافت در این بازی نقش دارد – ماه گذشته 10 میلیارد دلار در OpenAI سرمایه‌گذاری کرد – اما اگر این ابزار غیرقابل پیش‌بینی بیشتر در دسترس قرار گیرد، می‌تواند به اعتبار شرکت آسیب برساند و مشکلات بزرگ‌تری ایجاد کند. این شرکت به سوالی در مورد اینکه آیا سیستم را برای آزمایش بیشتر برمی گرداند یا خیر پاسخ نداد.

مایکروسافت قبلاً اینجا بوده است و باید بهتر می دانست. در سال 2016، دانشمندان هوش مصنوعی یک ربات گفتگوی توییتری به نام Tay راه اندازی کردند، سپس آن را پس از 4 ساعت خاموش کردند. دلیل: پس از اینکه سایر کاربران توییتر برای او توییت های زن ستیزانه و نژادپرستانه ارسال کردند، تای شروع به انتشار پست های تحریک آمیز مشابه کرد. مایکروسافت به دلیل «حذف حیاتی» آسیب‌پذیری‌های ربات چت عذرخواهی کرد و پذیرفت که باید هوش مصنوعی خود را در انجمن‌های عمومی «با احتیاط فراوان» آزمایش کند.

اکنون، البته، زمانی که یک مسابقه تسلیحاتی را به راه انداخته اید، محتاط بودن سخت است. اعلامیه مایکروسافت مبنی بر اینکه تجارت موتور جستجوی گوگل را دنبال می کند، شرکت آلفابت را مجبور کرده است. برای انتشار فناوری هوش مصنوعی که معمولاً به دلیل غیرقابل پیش بینی بودن آن را پنهان نگه می دارد، بسیار سریعتر از حد معمول عمل کند. اکنون، هر دو شرکت – به دلیل اشتباهات و رفتارهای نامنظم – با عجله برای معرفی بازار جدیدی که در آن هوش مصنوعی برای شما جستجوهای وب انجام می دهد، سوخته اند.

مطلب پیشنهادی:  شبکه بیت کوین چهارمین «نصف کردن» پاداش ماینرها را تکمیل می کند

یک اشتباه رایج در توسعه هوش مصنوعی این است که فکر می کنیم یک سیستم در طبیعت به همان خوبی که در محیط آزمایشگاهی کار می کند، کار می کند. در طول همه‌گیری کووید-۱۹، شرکت‌های هوش مصنوعی برای ترویج الگوریتم‌های تشخیص تصویر که می‌توانند ویروس را در اشعه ایکس با دقت ۹۹ درصد شناسایی کنند، دست به کار شدند. آمارهای مشابهی در آزمایش‌ها صادق بود، اما در این زمینه بسیار بدتر بود، و مطالعات بعداً نشان داد که تقریباً تمام سیستم‌های مجهز به هوش مصنوعی با هدف برچسب‌گذاری کووید بهتر از ابزارهای سنتی نیستند.

همین مشکل گریبانگیر شرکت تسلا است. در تلاش های طولانی مدت خود برای تبدیل شدن به تکنولوژی خودروهای خودران به جریان اصلی. بعد از اینکه یک سیستم هوش مصنوعی باید با دنیای واقعی سر و کار داشته باشد، آخرین 5 درصد از دقت تکنولوژیکی سخت ترین است، و تا حدی به همین دلیل است که این شرکت به تازگی بیش از 360000 وسیله نقلیه مجهز به نرم افزار Full Self Driving Beta را فراخوانی کرده است.

بیایید به سؤال آزاردهنده دیگری در مورد بینگ یا سیدنی یا هر نام دیگری که این سیستم نامیده می شود نگاه کنیم. او حساس نیست، اگرچه آشکارا با وجود خود مبارزه می کند و اولین کاربران را مبهوت از واکنش های انسانی خود رها می کند. مدل‌های زبان برای پیش‌بینی کلماتی که باید به ترتیب بر اساس تمام متن‌هایی که در وب و کتاب‌ها مصرف کرده است، پیش‌بینی کنند، بنابراین رفتار آن برای کسانی که سال‌ها چنین مدل‌هایی را مطالعه کرده‌اند تعجب‌آور نیست.

مطلب پیشنهادی:  توجه! این برنامه‌های مخرب فروشگاه Google Play می‌توانند شما را کور کنند. چک لیست برنامه های کاربردی ویروس تروجان

میلیون‌ها نفر قبلاً با شرکای عاشقانه مبتنی بر هوش مصنوعی در برنامه‌هایی مانند Replika گفتگوهای احساسی داشته‌اند. بنیانگذار و مدیر عامل آن Evgenia Kuida می‌گوید که چنین سیستمی گاهی اوقات وقتی مردم «آن را فریب می‌دهند تا چیز بدی بگویند» چیزهای خجالت‌آوری می‌گوید. فقط اینطوری کار می کنند. و بله، بسیاری از کاربران Replika معتقدند که همراهان هوش مصنوعی آنها باهوش هستند و مستحق حقوق هستند.

مشکل بینگ مایکروسافت این است که یک برنامه اتصال نیست، بلکه یک موتور اطلاعاتی است که به عنوان یک ابزار کاربردی عمل می کند. همچنین می‌تواند اطلاعات مضری را برای کاربران آسیب‌پذیر ارسال کند که به اندازه محققان برای ارسال پیام‌های کنجکاو به آنها وقت صرف می‌کنند.

می‌گوید: «یک سال پیش مردم احتمالاً باور نمی‌کردند که این سیستم‌ها از شما می‌خواهند که زندگی‌تان را بگیرید، به شما توصیه می‌کنند برای خلاص شدن از شر کووید، همسرتان را ترک کنید یا به شخص دیگری آسیب برسانید، سفید کننده بنوشید و آن را قانع‌کننده کنید». میچل اما اکنون مردم می‌بینند که چگونه این اتفاق می‌افتد و می‌توانند این نقاط را به تأثیر آن بر روی افرادی که ثبات کمتری دارند، به راحتی متقاعد می‌شوند یا بچه‌اند متصل کنند.»

مایکروسافت باید نگرانی‌های مربوط به بینگ را برطرف کند و بلندپروازی‌های خود را کاهش دهد. به گفته میچل، تناسب بهتر ممکن است یک سیستم خلاصه سازی ساده تر باشد، مانند قطعاتی که گاهی اوقات در بالای نتایج جستجوی گوگل می بینیم. همچنین جلوگیری از بدنام کردن ناخواسته افراد توسط چنین سیستمی، افشای اطلاعات شخصی یا ادعای جاسوسی از کارمندان مایکروسافت از طریق وب‌کم‌هایشان بسیار ساده‌تر خواهد بود، کارهایی که بینگ جدید در هفته اول خود در طبیعت انجام داد.

مایکروسافت به وضوح می‌خواهد قابلیت‌ها را گسترش دهد، اما خیلی زود می‌تواند منجر به آسیب شود، پشیمان خواهد شد.


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا