ریچارد برانسون، نوه اوپنهایمر، برای اقدام در زمینه هوش مصنوعی و آب و هوا تلاش می کند
ریچارد برانسون معتقد است که هزینه های زیست محیطی سفر فضایی “حتی بیشتر کاهش خواهد یافت”.
پاتریک تی فالون | خبرگزاری فرانسه | گتی ایماژ
ده ها شخصیت برجسته در تجارت و سیاست از رهبران جهان می خواهند تا به خطرات وجودی هوش مصنوعی و بحران آب و هوا رسیدگی کنند.
ریچارد برانسون، بنیانگذار گروه ویرجین، به همراه بان کی مون، دبیرکل سابق سازمان ملل متحد و چارلز اوپنهایمر – نوه فیزیکدان آمریکایی جی. رابرت اوپنهایمر – نامه ای سرگشاده را امضا کرد که در آن خواستار اقدام علیه خطرات فزاینده بحران آب و هوا، بیماری های همه گیر، سلاح های هسته ای و هوش مصنوعی غیرقابل کنترل شد.
این پیام از رهبران جهان میخواهد تا یک استراتژی بلندمدت و «عزم برای حل مشکلات حلناپذیر به جای مدیریت ساده آنها، حکمت برای تصمیمگیری بر اساس شواهد علمی و دلیل، و فروتنی برای گوش دادن به همه افراد مرتبط» اتخاذ کنند.
امضاکنندگان خواستار اقدام فوری چندجانبه، از جمله تامین مالی انتقال سوخت فسیلی، امضای یک معاهده همهگیر عادلانه، از سرگیری مذاکرات تسلیحات هستهای و ایجاد حکومت جهانی مورد نیاز برای تبدیل هوش مصنوعی به نیرویی برای خیر شدند.
این نامه روز پنجشنبه توسط The Elders، یک سازمان غیردولتی که توسط نلسون ماندلا، رئیس جمهور سابق آفریقای جنوبی و برانسون برای رسیدگی به مسائل جهانی حقوق بشر و حمایت از صلح جهانی تأسیس شده بود، منتشر شد.
این پیام همچنین توسط مؤسسه آینده زندگی، یک سازمان غیرانتفاعی که توسط کیهانشناس MIT، مکس تگمارک و یکی از بنیانگذاران اسکایپ، جان تالین تأسیس شده است، پشتیبانی میشود و هدف آن هدایت فناوریهای متحول کننده مانند هوش مصنوعی به سمت منافع زندگی و دوری از خطرات بزرگ است. .
تگمارک گفت که The Elders و سازمانش میخواستند بگویند که اگرچه به خودی خود «شیطان» نیست، اما فناوری همچنان یک «ابزار» باقی میماند که اگر اجازه داده شود به سرعت در دست افراد اشتباه پیشرفت کند، میتواند منجر به عواقب ناگواری شود.
«استراتژی قدیمی هدف قرار دادن مصارف خوب [when it comes to new technology] تگمارک در مصاحبه ای با CNBC گفت: ما آتش را اختراع کردیم و بعداً کپسول آتش نشانی را اختراع کردیم. ما ماشین را اختراع کردیم، سپس از اشتباهات خود درس گرفتیم و کمربند ایمنی، چراغ راهنمایی و محدودیت سرعت را اختراع کردیم.
“مهندسی ایمنی”
تگمارک افزود: “اما وقتی چیزی از آستانه و قدرت عبور کرد، این استراتژی یادگیری از اشتباهات تبدیل می شود… خب، اشتباهات وحشتناک خواهند بود.”
“به عنوان یک گیک، من به آن به عنوان ایمنی مهندسی فکر می کنم. ما مردم را به ماه می فرستیم، ما با دقت در مورد همه چیزهایی فکر کردیم که ممکن است وقتی مردم را در مخازن سوخت انفجاری قرار می دهید و آنها را به جایی می فرستید که هیچ کس نمی تواند کمک کند، اشتباه پیش بیاید. “
وی در ادامه گفت: «دومریسم» نبود. مهندسی ایمنی بود. و ما به این نوع مهندسی ایمنی برای آینده خود نیز نیاز داریم، با سلاح های هسته ای، با زیست شناسی مصنوعی، با هوش مصنوعی قدرتمندتر.
این نامه پیش از کنفرانس امنیتی مونیخ صادر شده است، جایی که مقامات دولتی، رهبران نظامی و دیپلمات ها در مورد امنیت بین المللی در بحبوحه تشدید درگیری های مسلحانه جهانی، از جمله جنگ روسیه، اوکراین و اسرائیل و حماس، گفتگو خواهند کرد. تگمارک برای دفاع از پیام نامه در این رویداد شرکت خواهد کرد.
موسسه آینده زندگی سال گذشته نیز نامه ای سرگشاده با حمایت چهره های برجسته از جمله ایلان ماسک، رئیس تسلا و استیو وزنیاک، بنیانگذار اپل منتشر کرد که در آن از آزمایشگاه های هوش مصنوعی مانند OpenAI خواسته شده بود تا کار بر روی آموزش مدل های هوش مصنوعی را متوقف کنند. GPT-4 – در حال حاضر پیشرفته ترین مدل هوش مصنوعی از OpenAI سام آلتمن.
فناوران خواستار چنین مکثی در توسعه هوش مصنوعی شدهاند تا از «از دست دادن کنترل» بر تمدن جلوگیری شود که میتواند منجر به از دست دادن شغل گسترده و رایانههای فریبنده انسانها شود.