کامپیوتر

ایلان ماسک هشدار می دهد که توسعه هوش مصنوعی را متوقف کنید یا خطر فاجعه را تهدید کنید

هوش مصنوعی (AI) در ماه‌های اخیر با انتشار ابزارها و ربات‌های مختلف مانند ChatGPT، Google Bard و غیره، با سرعتی سرسام‌آور حرکت کرده است. با این حال، این توسعه سریع باعث نگرانی جدی در میان کهنه‌کاران باتجربه هوش مصنوعی شده است – به طوری که بیش از 1000 نفر از آنها نامه‌ای سرگشاده امضا کرده‌اند که از توسعه‌دهندگان هوش مصنوعی خواسته‌اند تا ترمز بگیرند.

این نامه در وب سایت موسسه آینده زندگی منتشر شد، سازمانی که ماموریت اعلام شده آن “هدایت فناوری متحول کننده به سمت منافع زندگی و دوری از خطرات بسیار بالا” است. در میان امضاکنندگان چندین دانشگاه برجسته، استیو وزنیاک، بنیانگذار اپل و ایلان ماسک، مدیر عامل توییتر، حضور دارند.

تصویر تلطیف شده از ایلان ماسک، مدیرعامل تسلا و اسپیسکس
گتی ایماژ/گرافیک گرایش های دیجیتال

این مقاله از همه شرکت‌هایی که بر روی مدل‌های هوش مصنوعی قوی‌تر از GPT-4 کار می‌کنند می‌خواهد فوراً فعالیت خود را برای حداقل شش ماه متوقف کنند. این مهلت قانونی باید «عمومی و قابل تأیید» باشد و به «توسعه و اجرای مشترک مجموعه‌ای از پروتکل‌های ایمنی مشترک برای طراحی و توسعه هوش مصنوعی پیشرفته که به‌شدت توسط کارشناسان مستقل خارجی بازرسی و نظارت می‌شود» زمان می‌دهد.

در این نامه آمده است که این امر ضروری است زیرا “سیستم های هوش مصنوعی با هوش رقابتی انسان می تواند خطرات عمیقی برای جامعه و بشریت ایجاد کند.” این خطرات شامل گسترش تبلیغات، نابودی مشاغل، جایگزینی بالقوه و منسوخ شدن زندگی بشر و «از دست دادن کنترل تمدن ما» است. نویسندگان می افزایند که تصمیم گیری در مورد اینکه آیا در آینده به سمت جلو حرکت کنیم یا خیر، نباید به «رهبران فناوری انتخاب نشده» واگذار شود.

مطلب پیشنهادی:  من از هوش مصنوعی خواستم تا بهترین تبلیغات Super Bowl را بازسازی کند

هوش مصنوعی “به نفع همه”

ChatGPT در مقابل Google در گوشی‌های هوشمند.

این نامه در پی ادعاهایی مبنی بر اینکه GPT-5، نسخه بعدی فناوری که ChatGPT را تقویت می کند، می تواند به هوش عمومی مصنوعی دست یابد، منتشر شده است. اگر درست باشد، به این معناست که او قادر خواهد بود هر چیزی را که انسان می تواند بفهمد، درک کند و بیاموزد. این می تواند او را در راه هایی که هنوز به طور کامل کشف نشده اند، بسیار قدرتمند کند.

علاوه بر این، این نامه ادعا می‌کند که برنامه‌ریزی و حکمرانی مسئولانه حول توسعه سیستم‌های هوش مصنوعی اتفاق نمی‌افتد، «هرچند ماه‌های اخیر شاهد بوده‌اند که آزمایشگاه‌های هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهن‌های دیجیتال غیرانسانی قدرتمندتر قفل شده‌اند. – نه حتی سازندگان آنها – می توانند درک کنند، پیش بینی کنند یا به طور قابل اعتماد کنترل کنند.”

در عوض، این نامه استدلال می‌کند که سیستم‌های حکمرانی جدید باید ایجاد شود تا توسعه هوش مصنوعی را تنظیم کند، به مردم کمک کند بین محتوای تولید شده توسط هوش مصنوعی و محتوای تولید شده توسط انسان تمایز قائل شوند، آزمایشگاه‌های هوش مصنوعی را در قبال هر آسیبی که ایجاد می‌کنند پاسخگو بدانند، تا جامعه را قادر سازد تا با اختلالات هوش مصنوعی مقابله کند. به ویژه به دموکراسی) و غیره.

نویسندگان با یک نکته مثبت پایان می‌دهند و استدلال می‌کنند که «بشریت می‌تواند با هوش مصنوعی از آینده‌ای مرفه برخوردار شود… که در آن ما پاداش‌ها را درو می‌کنیم، این سیستم‌ها را به نفع همگان طراحی می‌کنیم، و به جامعه فرصتی برای سازگاری می‌دهیم.» فشار دادن مکث بر هوش مصنوعی. آنها می گویند که سیستم های قدرتمندتر از GPT-4 اجازه می دهند این اتفاق بیفتد.

مطلب پیشنهادی:  اینتل پیش بینی های فروش و سود سالانه خود را در بحبوحه تقاضای ضعیف تر رایانه های شخصی کاهش داده است

آیا نامه اثر مطلوب را خواهد داشت؟ گفتنش سخت است. انگیزه‌های آشکاری برای آزمایشگاه‌های هوش مصنوعی وجود دارد تا به کار بر روی مدل‌های پیشرفته، چه مالی و چه از نظر اعتبار، ادامه دهند. اما با وجود خطرات بالقوه بسیار – و درک بسیار کمی از آنها – نویسندگان نامه به وضوح معتقدند که این انگیزه ها برای دنبال کردن بسیار خطرناک هستند.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا