تکنولوژی

ریچارد برانسون، نوه اوپنهایمر، برای اقدام در زمینه هوش مصنوعی و آب و هوا تلاش می کند

ریچارد برانسون معتقد است که هزینه های زیست محیطی سفر فضایی “حتی بیشتر کاهش خواهد یافت”.

پاتریک تی فالون | خبرگزاری فرانسه | گتی ایماژ

ده ها شخصیت برجسته در تجارت و سیاست از رهبران جهان می خواهند تا به خطرات وجودی هوش مصنوعی و بحران آب و هوا رسیدگی کنند.

ریچارد برانسون، بنیانگذار گروه ویرجین، به همراه بان کی مون، دبیرکل سابق سازمان ملل متحد و چارلز اوپنهایمر – نوه فیزیکدان آمریکایی جی. رابرت اوپنهایمر – نامه ای سرگشاده را امضا کرد که در آن خواستار اقدام علیه خطرات فزاینده بحران آب و هوا، بیماری های همه گیر، سلاح های هسته ای و هوش مصنوعی غیرقابل کنترل شد.

این پیام از رهبران جهان می‌خواهد تا یک استراتژی بلندمدت و «عزم برای حل مشکلات حل‌ناپذیر به جای مدیریت ساده آن‌ها، حکمت برای تصمیم‌گیری بر اساس شواهد علمی و دلیل، و فروتنی برای گوش دادن به همه افراد مرتبط» اتخاذ کنند.

امضاکنندگان خواستار اقدام فوری چندجانبه، از جمله تامین مالی انتقال سوخت فسیلی، امضای یک معاهده همه‌گیر عادلانه، از سرگیری مذاکرات تسلیحات هسته‌ای و ایجاد حکومت جهانی مورد نیاز برای تبدیل هوش مصنوعی به نیرویی برای خیر شدند.

این نامه روز پنجشنبه توسط The Elders، یک سازمان غیردولتی که توسط نلسون ماندلا، رئیس جمهور سابق آفریقای جنوبی و برانسون برای رسیدگی به مسائل جهانی حقوق بشر و حمایت از صلح جهانی تأسیس شده بود، منتشر شد.

این پیام همچنین توسط مؤسسه آینده زندگی، یک سازمان غیرانتفاعی که توسط کیهان‌شناس MIT، مکس تگمارک و یکی از بنیانگذاران اسکایپ، جان تالین تأسیس شده است، پشتیبانی می‌شود و هدف آن هدایت فناوری‌های متحول کننده مانند هوش مصنوعی به سمت منافع زندگی و دوری از خطرات بزرگ است. .

مطلب پیشنهادی:  گردآوری هوش مصنوعی 12 آوریل: هوش مصنوعی اخلاقی Firefly Adobe سوالاتی را ایجاد می کند که توسط تبلیغات سیاسی هوش مصنوعی در اینستاگرام و موارد دیگر ایجاد شده است.
مدیر عامل Fiserv: ما بر نحوه استفاده از هوش مصنوعی برای کمک به مشتریان خود برای اداره بهتر تجارت خود متمرکز شده ایم

تگمارک گفت که The Elders و سازمانش می‌خواستند بگویند که اگرچه به خودی خود «شیطان» نیست، اما فناوری همچنان یک «ابزار» باقی می‌ماند که اگر اجازه داده شود به سرعت در دست افراد اشتباه پیشرفت کند، می‌تواند منجر به عواقب ناگواری شود.

«استراتژی قدیمی هدف قرار دادن مصارف خوب [when it comes to new technology] تگمارک در مصاحبه ای با CNBC گفت: ما آتش را اختراع کردیم و بعداً کپسول آتش نشانی را اختراع کردیم. ما ماشین را اختراع کردیم، سپس از اشتباهات خود درس گرفتیم و کمربند ایمنی، چراغ راهنمایی و محدودیت سرعت را اختراع کردیم.

“مهندسی ایمنی”

تگمارک افزود: “اما وقتی چیزی از آستانه و قدرت عبور کرد، این استراتژی یادگیری از اشتباهات تبدیل می شود… خب، اشتباهات وحشتناک خواهند بود.”

“به عنوان یک گیک، من به آن به عنوان ایمنی مهندسی فکر می کنم. ما مردم را به ماه می فرستیم، ما با دقت در مورد همه چیزهایی فکر کردیم که ممکن است وقتی مردم را در مخازن سوخت انفجاری قرار می دهید و آنها را به جایی می فرستید که هیچ کس نمی تواند کمک کند، اشتباه پیش بیاید. “

وی در ادامه گفت: «دومریسم» نبود. مهندسی ایمنی بود. و ما به این نوع مهندسی ایمنی برای آینده خود نیز نیاز داریم، با سلاح های هسته ای، با زیست شناسی مصنوعی، با هوش مصنوعی قدرتمندتر.

این نامه پیش از کنفرانس امنیتی مونیخ صادر شده است، جایی که مقامات دولتی، رهبران نظامی و دیپلمات ها در مورد امنیت بین المللی در بحبوحه تشدید درگیری های مسلحانه جهانی، از جمله جنگ روسیه، اوکراین و اسرائیل و حماس، گفتگو خواهند کرد. تگمارک برای دفاع از پیام نامه در این رویداد شرکت خواهد کرد.

مطلب پیشنهادی:  5 چیز در مورد هوش مصنوعی که ممکن است امروز از دست داده باشید: موج فزاینده کلاهبرداری با هوش مصنوعی، میزبان اولین کنفرانس نظامی در ایالات متحده در مورد هوش مصنوعی، بیشتر

موسسه آینده زندگی سال گذشته نیز نامه ای سرگشاده با حمایت چهره های برجسته از جمله ایلان ماسک، رئیس تسلا و استیو وزنیاک، بنیانگذار اپل منتشر کرد که در آن از آزمایشگاه های هوش مصنوعی مانند OpenAI خواسته شده بود تا کار بر روی آموزش مدل های هوش مصنوعی را متوقف کنند. GPT-4 – در حال حاضر پیشرفته ترین مدل هوش مصنوعی از OpenAI سام آلتمن.

فناوران خواستار چنین مکثی در توسعه هوش مصنوعی شده‌اند تا از «از دست دادن کنترل» بر تمدن جلوگیری شود که می‌تواند منجر به از دست دادن شغل گسترده و رایانه‌های فریبنده انسان‌ها شود.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا