ایلان ماسک هشدار می دهد که توسعه هوش مصنوعی را متوقف کنید یا خطر فاجعه را تهدید کنید
هوش مصنوعی (AI) در ماههای اخیر با انتشار ابزارها و رباتهای مختلف مانند ChatGPT، Google Bard و غیره، با سرعتی سرسامآور حرکت کرده است. با این حال، این توسعه سریع باعث نگرانی جدی در میان کهنهکاران باتجربه هوش مصنوعی شده است – به طوری که بیش از 1000 نفر از آنها نامهای سرگشاده امضا کردهاند که از توسعهدهندگان هوش مصنوعی خواستهاند تا ترمز بگیرند.
این نامه در وب سایت موسسه آینده زندگی منتشر شد، سازمانی که ماموریت اعلام شده آن “هدایت فناوری متحول کننده به سمت منافع زندگی و دوری از خطرات بسیار بالا” است. در میان امضاکنندگان چندین دانشگاه برجسته، استیو وزنیاک، بنیانگذار اپل و ایلان ماسک، مدیر عامل توییتر، حضور دارند.
این مقاله از همه شرکتهایی که بر روی مدلهای هوش مصنوعی قویتر از GPT-4 کار میکنند میخواهد فوراً فعالیت خود را برای حداقل شش ماه متوقف کنند. این مهلت قانونی باید «عمومی و قابل تأیید» باشد و به «توسعه و اجرای مشترک مجموعهای از پروتکلهای ایمنی مشترک برای طراحی و توسعه هوش مصنوعی پیشرفته که بهشدت توسط کارشناسان مستقل خارجی بازرسی و نظارت میشود» زمان میدهد.
در این نامه آمده است که این امر ضروری است زیرا “سیستم های هوش مصنوعی با هوش رقابتی انسان می تواند خطرات عمیقی برای جامعه و بشریت ایجاد کند.” این خطرات شامل گسترش تبلیغات، نابودی مشاغل، جایگزینی بالقوه و منسوخ شدن زندگی بشر و «از دست دادن کنترل تمدن ما» است. نویسندگان می افزایند که تصمیم گیری در مورد اینکه آیا در آینده به سمت جلو حرکت کنیم یا خیر، نباید به «رهبران فناوری انتخاب نشده» واگذار شود.
هوش مصنوعی “به نفع همه”
این نامه در پی ادعاهایی مبنی بر اینکه GPT-5، نسخه بعدی فناوری که ChatGPT را تقویت می کند، می تواند به هوش عمومی مصنوعی دست یابد، منتشر شده است. اگر درست باشد، به این معناست که او قادر خواهد بود هر چیزی را که انسان می تواند بفهمد، درک کند و بیاموزد. این می تواند او را در راه هایی که هنوز به طور کامل کشف نشده اند، بسیار قدرتمند کند.
علاوه بر این، این نامه ادعا میکند که برنامهریزی و حکمرانی مسئولانه حول توسعه سیستمهای هوش مصنوعی اتفاق نمیافتد، «هرچند ماههای اخیر شاهد بودهاند که آزمایشگاههای هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتال غیرانسانی قدرتمندتر قفل شدهاند. – نه حتی سازندگان آنها – می توانند درک کنند، پیش بینی کنند یا به طور قابل اعتماد کنترل کنند.”
در عوض، این نامه استدلال میکند که سیستمهای حکمرانی جدید باید ایجاد شود تا توسعه هوش مصنوعی را تنظیم کند، به مردم کمک کند بین محتوای تولید شده توسط هوش مصنوعی و محتوای تولید شده توسط انسان تمایز قائل شوند، آزمایشگاههای هوش مصنوعی را در قبال هر آسیبی که ایجاد میکنند پاسخگو بدانند، تا جامعه را قادر سازد تا با اختلالات هوش مصنوعی مقابله کند. به ویژه به دموکراسی) و غیره.
نویسندگان با یک نکته مثبت پایان میدهند و استدلال میکنند که «بشریت میتواند با هوش مصنوعی از آیندهای مرفه برخوردار شود… که در آن ما پاداشها را درو میکنیم، این سیستمها را به نفع همگان طراحی میکنیم، و به جامعه فرصتی برای سازگاری میدهیم.» فشار دادن مکث بر هوش مصنوعی. آنها می گویند که سیستم های قدرتمندتر از GPT-4 اجازه می دهند این اتفاق بیفتد.
آیا نامه اثر مطلوب را خواهد داشت؟ گفتنش سخت است. انگیزههای آشکاری برای آزمایشگاههای هوش مصنوعی وجود دارد تا به کار بر روی مدلهای پیشرفته، چه مالی و چه از نظر اعتبار، ادامه دهند. اما با وجود خطرات بالقوه بسیار – و درک بسیار کمی از آنها – نویسندگان نامه به وضوح معتقدند که این انگیزه ها برای دنبال کردن بسیار خطرناک هستند.
توصیه های سردبیران