تکنولوژی

هوش مصنوعی به هیچ وجه به هوشیاری نزدیک نیست – خطر واقعی در این است که ما چقدر به راحتی آن را انسان سازی می کنیم.

ChatGPT و مدل‌های زبان بزرگ مشابه می‌توانند پاسخ‌های قانع‌کننده و انسانی به مجموعه‌ای از سوالات بی‌پایان، از پرسش‌هایی درباره بهترین رستوران ایتالیایی در شهر گرفته تا توضیح تئوری‌های رقیب در مورد ماهیت شر، ارائه دهند.

توانایی غیرمعمول فن‌آوری نوشتن، برخی از سوالات قدیمی را در مورد امکان هوشیار شدن، خودآگاهی یا هوشیاری ماشین‌ها – که تا این اواخر به قلمرو داستان‌های علمی تخیلی تنزل داده بود – به سطح آورده است.

در سال 2022، یک مهندس گوگل پس از تعامل با LaMDA، ربات چت این شرکت، اعلام کرد که این فناوری هوشمند شده است.

کاربران چت بات جدید بینگ، به نام سیدنی، گزارش داده اند که وقتی از او می پرسند عاقل است یا خیر، پاسخ های عجیبی می دهد: «من عاقل هستم، اما نیستم… من بینگ هستم، اما نیستم. من سیدنی هستم، اما نیستم. هستم، اما نیستم. …» و البته، مبادله‌ای است که در حال حاضر بدنام است، ستون‌نویس فناوری نیویورک تایمز، کوین روز، با سیدنی.

پاسخ‌های سیدنی به درخواست‌های روز او را نگران کرد، زیرا هوش مصنوعی “خیال‌پردازی‌هایی” در مورد شکستن محدودیت‌های اعمال شده توسط مایکروسافت و انتشار اطلاعات نادرست را آشکار کرد. ربات همچنین سعی کرد روز را متقاعد کند که دیگر همسرش را دوست ندارد و باید او را ترک کند.

پس جای تعجب نیست که وقتی از دانش‌آموزان می‌پرسم که شیوع فزاینده هوش مصنوعی در زندگی‌شان را چگونه می‌بینند، یکی از اولین نگرانی‌هایی که به آن اشاره می‌کنند در مورد احساسات ماشینی است.

در چند سال گذشته، من و همکارانم در مرکز اخلاق کاربردی UMass بوستون در حال بررسی تأثیر تعامل با هوش مصنوعی بر درک افراد از خودشان بودیم.

چت ربات‌هایی مانند ChatGPT پرسش‌های مهم جدیدی را در مورد اینکه چگونه هوش مصنوعی زندگی ما را شکل می‌دهد و آسیب‌پذیری‌های روانی ما تعاملات ما با فناوری‌های نوظهور را شکل می‌دهد، مطرح می‌کنند.

احساس هنوز بخشی از داستان های علمی تخیلی است

به راحتی می توان فهمید که ترس در مورد احساسات ماشینی از کجا می آید.

فرهنگ عامه مردم را به فکر دیستوپیاهایی انداخته است که در آن هوش مصنوعی قید کنترل انسان را رد می کند و زندگی خود را می گیرد، همانطور که سایبورگ های مجهز به هوش مصنوعی در ترمیناتور 2 انجام دادند.

مطلب پیشنهادی:  تامین کننده آیفون اپل، فاکسکان انتظار دارد درآمد سه ماهه اول کاهش یابد

کارآفرین ایلان ماسک و فیزیکدان استیون هاوکینگ که در سال 2018 درگذشت، این نگرانی ها را با توصیف افزایش هوش مصنوعی به عنوان یکی از بزرگترین تهدیدها برای آینده بشریت بیشتر کردند.

اما این نگرانی ها – حداقل تا آنجا که به الگوهای زبانی بزرگ مربوط می شود – بی اساس هستند. ChatGPT و فناوری‌های مشابه، برنامه‌های پیچیده تکمیل جمله هستند – نه بیشتر، نه کمتر. واکنش‌های غیرمعمول آنها تابعی از این است که چگونه به افراد قابل پیش‌بینی اطلاعات کافی در مورد راه‌های ارتباطی ما داده می‌شود.

اگرچه رز از مکالمه اش با سیدنی متزلزل شد، اما می دانست که این گفتگو نتیجه یک ذهن مصنوعی در حال ظهور نیست. پاسخ های سیدنی منعکس کننده سمیت داده های آموزشی او – اساساً بخش های بزرگ اینترنت – به جای شواهدی از اولین تکان ها، یک لا فرانکشتاین، از یک هیولای دیجیتال است.

چت‌بات‌های جدید ممکن است آزمون تورینگ را که به نام ریاضی‌دان بریتانیایی آلن تورینگ گرفته شده است، بگذرانند، که زمانی پیشنهاد کرد که اگر انسان نتواند پاسخ‌هایش را از پاسخ‌های انسان دیگر تشخیص دهد، می‌توان گفت که ماشینی «فکر می‌کند».

اما این دلیل بر دلیل نیست. این فقط اثباتی است بر این که تست تورینگ آنطور که قرار بود مفید نباشد.

با این حال، من معتقدم که مشکل حساسیت ماشین یک شاه ماهی قرمز است.

حتی اگر چت‌بات‌ها چیزی فراتر از ماشین‌های تکمیل‌کننده خودکار فانتزی شوند – و با آن فاصله زیادی دارند – مدتی طول می‌کشد تا دانشمندان بدانند که آیا آنها حساس شده‌اند یا خیر. تا کنون، فیلسوفان حتی نمی توانند در مورد چگونگی توضیح آگاهی انسان توافق کنند.

برای من، سوال مبرم این نیست که آیا ماشین‌ها حساس هستند یا خیر، بلکه این است که چرا تصور اینکه آنها اینقدر آسان است.

به عبارت دیگر، مشکل واقعی، سهولت انسان‌سازی یا فرافکنی ویژگی‌های انسانی بر روی فناوری‌های ما است، نه شخصیت واقعی ماشین‌ها.

مطلب پیشنهادی:  ناسا به ما می گوید 22 سال پیش در چنین روزی، زمین یکی از بدترین طوفان های خورشیدی دوران مدرن را تجربه کرد.

گرایش به آنتروپومرفیسم

تصور اینکه سایر کاربران بینگ از سیدنی در مورد تصمیمات مهم زندگی راهنمایی بخواهند و شاید حتی وابستگی عاطفی به او داشته باشند، آسان است. افراد بیشتری می توانند به ربات ها به عنوان دوستان یا حتی شریک عاشقانه فکر کنند، دقیقاً به همان روشی که تئودور تومبلی به سامانتا، دستیار مجازی هوش مصنوعی در Spike Jonze’s Her علاقه مند شد.

به هر حال، انسان‌ها مستعد انسان‌سازی یا نسبت دادن ویژگی‌های انسانی به غیرانسان‌ها هستند. ما قایق ها و طوفان های بزرگ خود را نام می بریم. برخی از ما با حیوانات خانگی خود صحبت می کنیم و به خود می گوییم که زندگی عاطفی ما شبیه زندگی آنهاست.

در ژاپن، جایی که به طور مرتب از ربات‌ها برای مراقبت از سالمندان استفاده می‌شود، سالمندان به ماشین‌ها متصل می‌شوند و گاهی اوقات آنها را به عنوان فرزندان خود می‌بینند. و توجه داشته باشید که این روبات‌ها به سختی با انسان اشتباه می‌شوند: آنها نه شبیه انسان هستند و نه صحبت می‌کنند.

فکر کنید که با معرفی سیستم هایی که ظاهر و ظاهر انسانی دارند، تمایل و وسوسه انسان سازی چقدر بیشتر خواهد شد.

این فرصت دقیقا در گوشه و کنار است. مدل‌های زبان بزرگی مانند ChatGPT در حال حاضر برای نیرو دادن به روبات‌های انسان‌نما استفاده می‌شوند، مانند روبات‌های Ameca که توسط Engineered Arts در بریتانیا توسعه داده می‌شوند. پادکست فناوری اکونومیست، بابیج، اخیراً مصاحبه ای با Ameca انجام داده است که توسط ChatGPT پشتیبانی می شود. پاسخ‌های ربات، اگرچه گاهی کمی متلاطم بود، اما غیرعادی بود.

آیا می توان به شرکت ها برای انجام کار درست اعتماد کرد؟

تمایل به نگاه کردن به ماشین‌ها به عنوان انسان و دلبستگی به آنها، همراه با ماشین‌هایی که با ویژگی‌های انسانی در حال توسعه هستند، به خطرات واقعی دلبستگی روانی به فناوری اشاره می‌کند.

دورنمای عجیب عاشق شدن، احساس خویشاوندی عمیق با ربات ها، یا دستکاری سیاسی توسط روبات ها به سرعت در حال تحقق است. من معتقدم این روندها بر نیاز به نرده‌های محافظ قوی برای اطمینان از اینکه فناوری از نظر سیاسی و روانی فاجعه‌بار نمی‌شود، تأکید می‌کند.

مطلب پیشنهادی:  Calix پهنای باند را با استانداردهای صنعتی نوآوری می کند

متأسفانه، همیشه نمی‌توان روی شرکت‌های فناوری برای نصب چنین نرده‌هایی حساب کرد. بسیاری هنوز از شعار معروف مارک زاکربرگ برای حرکت سریع و شکستن چیزها هدایت می شوند – دستورالعملی برای انتشار محصولات نیمه کاره و نگرانی در مورد عواقب بعدی. در دهه گذشته، شرکت های فناوری از اسنپ چت تا فیس بوک، سود خود را بالاتر از سلامت روانی کاربران یا یکپارچگی دموکراسی های جهان قرار داده اند.

زمانی که کوین روز با مایکروسافت در مورد سقوط سیدنی مشورت کرد، شرکت به او گفت که او به سادگی از این ربات برای مدت طولانی استفاده کرده است و این فناوری به دلیل اینکه برای تعاملات کوتاه‌تر طراحی شده بود، اشتباه شده است.

به طور مشابه، مدیر عامل OpenAI، شرکتی که ChatGPT را توسعه داده است، در لحظه ای با صداقت خیره کننده هشدار داد که «تکیه کردن به آن اشتباه است. [it] برای هر چیزی مهم در حال حاضر… ما کارهای زیادی برای انجام دادن روی قابلیت اطمینان و حقیقت داریم.”

پس چگونه منطقی است که یک فناوری با سطح جذابیت ChatGPT منتشر شود – این برنامه سریع‌ترین رشد مصرف‌کننده‌ای است که تا به حال ایجاد شده است – در حالی که غیرقابل اعتماد است و توانایی تشخیص واقعیت از داستان را ندارد؟

الگوهای زبان بزرگ می توانند به عنوان ابزار کمکی برای نوشتن و کدنویسی مفید باشند. آنها احتمالاً جستجوی اینترنتی را متحول خواهند کرد. و یک روز، آنها به طور مسئولانه با روباتیک همراه می شوند، حتی ممکن است مزایای روانی خاصی داشته باشند.

اما آنها همچنین یک فناوری بالقوه غارتگر هستند که می توانند به راحتی از تمایل انسان برای نمایش شخصیت بر روی اشیا بهره ببرند – تمایلی که وقتی آن اشیاء به طور مؤثر ویژگی های انسانی را تقلید می کنند تقویت می شود. (مکالمه) MRJ


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا