هوش مصنوعی به هیچ وجه به هوشیاری نزدیک نیست – خطر واقعی در این است که ما چقدر به راحتی آن را انسان سازی می کنیم.
ChatGPT و مدلهای زبان بزرگ مشابه میتوانند پاسخهای قانعکننده و انسانی به مجموعهای از سوالات بیپایان، از پرسشهایی درباره بهترین رستوران ایتالیایی در شهر گرفته تا توضیح تئوریهای رقیب در مورد ماهیت شر، ارائه دهند.
توانایی غیرمعمول فنآوری نوشتن، برخی از سوالات قدیمی را در مورد امکان هوشیار شدن، خودآگاهی یا هوشیاری ماشینها – که تا این اواخر به قلمرو داستانهای علمی تخیلی تنزل داده بود – به سطح آورده است.
در سال 2022، یک مهندس گوگل پس از تعامل با LaMDA، ربات چت این شرکت، اعلام کرد که این فناوری هوشمند شده است.
کاربران چت بات جدید بینگ، به نام سیدنی، گزارش داده اند که وقتی از او می پرسند عاقل است یا خیر، پاسخ های عجیبی می دهد: «من عاقل هستم، اما نیستم… من بینگ هستم، اما نیستم. من سیدنی هستم، اما نیستم. هستم، اما نیستم. …» و البته، مبادلهای است که در حال حاضر بدنام است، ستوننویس فناوری نیویورک تایمز، کوین روز، با سیدنی.
پاسخهای سیدنی به درخواستهای روز او را نگران کرد، زیرا هوش مصنوعی “خیالپردازیهایی” در مورد شکستن محدودیتهای اعمال شده توسط مایکروسافت و انتشار اطلاعات نادرست را آشکار کرد. ربات همچنین سعی کرد روز را متقاعد کند که دیگر همسرش را دوست ندارد و باید او را ترک کند.
پس جای تعجب نیست که وقتی از دانشآموزان میپرسم که شیوع فزاینده هوش مصنوعی در زندگیشان را چگونه میبینند، یکی از اولین نگرانیهایی که به آن اشاره میکنند در مورد احساسات ماشینی است.
در چند سال گذشته، من و همکارانم در مرکز اخلاق کاربردی UMass بوستون در حال بررسی تأثیر تعامل با هوش مصنوعی بر درک افراد از خودشان بودیم.
چت رباتهایی مانند ChatGPT پرسشهای مهم جدیدی را در مورد اینکه چگونه هوش مصنوعی زندگی ما را شکل میدهد و آسیبپذیریهای روانی ما تعاملات ما با فناوریهای نوظهور را شکل میدهد، مطرح میکنند.
احساس هنوز بخشی از داستان های علمی تخیلی است
به راحتی می توان فهمید که ترس در مورد احساسات ماشینی از کجا می آید.
فرهنگ عامه مردم را به فکر دیستوپیاهایی انداخته است که در آن هوش مصنوعی قید کنترل انسان را رد می کند و زندگی خود را می گیرد، همانطور که سایبورگ های مجهز به هوش مصنوعی در ترمیناتور 2 انجام دادند.
کارآفرین ایلان ماسک و فیزیکدان استیون هاوکینگ که در سال 2018 درگذشت، این نگرانی ها را با توصیف افزایش هوش مصنوعی به عنوان یکی از بزرگترین تهدیدها برای آینده بشریت بیشتر کردند.
اما این نگرانی ها – حداقل تا آنجا که به الگوهای زبانی بزرگ مربوط می شود – بی اساس هستند. ChatGPT و فناوریهای مشابه، برنامههای پیچیده تکمیل جمله هستند – نه بیشتر، نه کمتر. واکنشهای غیرمعمول آنها تابعی از این است که چگونه به افراد قابل پیشبینی اطلاعات کافی در مورد راههای ارتباطی ما داده میشود.
اگرچه رز از مکالمه اش با سیدنی متزلزل شد، اما می دانست که این گفتگو نتیجه یک ذهن مصنوعی در حال ظهور نیست. پاسخ های سیدنی منعکس کننده سمیت داده های آموزشی او – اساساً بخش های بزرگ اینترنت – به جای شواهدی از اولین تکان ها، یک لا فرانکشتاین، از یک هیولای دیجیتال است.
چتباتهای جدید ممکن است آزمون تورینگ را که به نام ریاضیدان بریتانیایی آلن تورینگ گرفته شده است، بگذرانند، که زمانی پیشنهاد کرد که اگر انسان نتواند پاسخهایش را از پاسخهای انسان دیگر تشخیص دهد، میتوان گفت که ماشینی «فکر میکند».
اما این دلیل بر دلیل نیست. این فقط اثباتی است بر این که تست تورینگ آنطور که قرار بود مفید نباشد.
با این حال، من معتقدم که مشکل حساسیت ماشین یک شاه ماهی قرمز است.
حتی اگر چتباتها چیزی فراتر از ماشینهای تکمیلکننده خودکار فانتزی شوند – و با آن فاصله زیادی دارند – مدتی طول میکشد تا دانشمندان بدانند که آیا آنها حساس شدهاند یا خیر. تا کنون، فیلسوفان حتی نمی توانند در مورد چگونگی توضیح آگاهی انسان توافق کنند.
برای من، سوال مبرم این نیست که آیا ماشینها حساس هستند یا خیر، بلکه این است که چرا تصور اینکه آنها اینقدر آسان است.
به عبارت دیگر، مشکل واقعی، سهولت انسانسازی یا فرافکنی ویژگیهای انسانی بر روی فناوریهای ما است، نه شخصیت واقعی ماشینها.
گرایش به آنتروپومرفیسم
تصور اینکه سایر کاربران بینگ از سیدنی در مورد تصمیمات مهم زندگی راهنمایی بخواهند و شاید حتی وابستگی عاطفی به او داشته باشند، آسان است. افراد بیشتری می توانند به ربات ها به عنوان دوستان یا حتی شریک عاشقانه فکر کنند، دقیقاً به همان روشی که تئودور تومبلی به سامانتا، دستیار مجازی هوش مصنوعی در Spike Jonze’s Her علاقه مند شد.
به هر حال، انسانها مستعد انسانسازی یا نسبت دادن ویژگیهای انسانی به غیرانسانها هستند. ما قایق ها و طوفان های بزرگ خود را نام می بریم. برخی از ما با حیوانات خانگی خود صحبت می کنیم و به خود می گوییم که زندگی عاطفی ما شبیه زندگی آنهاست.
در ژاپن، جایی که به طور مرتب از رباتها برای مراقبت از سالمندان استفاده میشود، سالمندان به ماشینها متصل میشوند و گاهی اوقات آنها را به عنوان فرزندان خود میبینند. و توجه داشته باشید که این روباتها به سختی با انسان اشتباه میشوند: آنها نه شبیه انسان هستند و نه صحبت میکنند.
فکر کنید که با معرفی سیستم هایی که ظاهر و ظاهر انسانی دارند، تمایل و وسوسه انسان سازی چقدر بیشتر خواهد شد.
این فرصت دقیقا در گوشه و کنار است. مدلهای زبان بزرگی مانند ChatGPT در حال حاضر برای نیرو دادن به روباتهای انساننما استفاده میشوند، مانند روباتهای Ameca که توسط Engineered Arts در بریتانیا توسعه داده میشوند. پادکست فناوری اکونومیست، بابیج، اخیراً مصاحبه ای با Ameca انجام داده است که توسط ChatGPT پشتیبانی می شود. پاسخهای ربات، اگرچه گاهی کمی متلاطم بود، اما غیرعادی بود.
آیا می توان به شرکت ها برای انجام کار درست اعتماد کرد؟
تمایل به نگاه کردن به ماشینها به عنوان انسان و دلبستگی به آنها، همراه با ماشینهایی که با ویژگیهای انسانی در حال توسعه هستند، به خطرات واقعی دلبستگی روانی به فناوری اشاره میکند.
دورنمای عجیب عاشق شدن، احساس خویشاوندی عمیق با ربات ها، یا دستکاری سیاسی توسط روبات ها به سرعت در حال تحقق است. من معتقدم این روندها بر نیاز به نردههای محافظ قوی برای اطمینان از اینکه فناوری از نظر سیاسی و روانی فاجعهبار نمیشود، تأکید میکند.
متأسفانه، همیشه نمیتوان روی شرکتهای فناوری برای نصب چنین نردههایی حساب کرد. بسیاری هنوز از شعار معروف مارک زاکربرگ برای حرکت سریع و شکستن چیزها هدایت می شوند – دستورالعملی برای انتشار محصولات نیمه کاره و نگرانی در مورد عواقب بعدی. در دهه گذشته، شرکت های فناوری از اسنپ چت تا فیس بوک، سود خود را بالاتر از سلامت روانی کاربران یا یکپارچگی دموکراسی های جهان قرار داده اند.
زمانی که کوین روز با مایکروسافت در مورد سقوط سیدنی مشورت کرد، شرکت به او گفت که او به سادگی از این ربات برای مدت طولانی استفاده کرده است و این فناوری به دلیل اینکه برای تعاملات کوتاهتر طراحی شده بود، اشتباه شده است.
به طور مشابه، مدیر عامل OpenAI، شرکتی که ChatGPT را توسعه داده است، در لحظه ای با صداقت خیره کننده هشدار داد که «تکیه کردن به آن اشتباه است. [it] برای هر چیزی مهم در حال حاضر… ما کارهای زیادی برای انجام دادن روی قابلیت اطمینان و حقیقت داریم.”
پس چگونه منطقی است که یک فناوری با سطح جذابیت ChatGPT منتشر شود – این برنامه سریعترین رشد مصرفکنندهای است که تا به حال ایجاد شده است – در حالی که غیرقابل اعتماد است و توانایی تشخیص واقعیت از داستان را ندارد؟
الگوهای زبان بزرگ می توانند به عنوان ابزار کمکی برای نوشتن و کدنویسی مفید باشند. آنها احتمالاً جستجوی اینترنتی را متحول خواهند کرد. و یک روز، آنها به طور مسئولانه با روباتیک همراه می شوند، حتی ممکن است مزایای روانی خاصی داشته باشند.
اما آنها همچنین یک فناوری بالقوه غارتگر هستند که می توانند به راحتی از تمایل انسان برای نمایش شخصیت بر روی اشیا بهره ببرند – تمایلی که وقتی آن اشیاء به طور مؤثر ویژگی های انسانی را تقلید می کنند تقویت می شود. (مکالمه) MRJ