مارکوس حکیم هوش مصنوعی می گوید که خطر انقراض انسان “اغراق آمیز” شده است
از زمانی که شش ماه پیش ChatGPT پیشگامانه به صحنه آمد، گری مارکوس متخصص نسبت به توسعه و پذیرش فوق سریع هوش مصنوعی هشدار داده است.
اما در برابر پیامبران آخرالزمانی هوش مصنوعی، استاد بازنشسته دانشگاه نیویورک در مصاحبه اخیر با خبرگزاری فرانسه گفت که تهدیدات وجودی این فناوری ممکن است در حال حاضر “بیش از حد” باشد.
مارکوس در سانفرانسیسکو گفت: «من شخصاً در مورد خطر انقراض، حداقل در حال حاضر، چندان نگران نیستم، زیرا سناریوها چندان مشخص نیستند.
“یک مشکل کلی تر که من نگران آن هستم… این است که ما در حال ساختن سیستم های هوش مصنوعی هستیم که کنترل چندان خوبی روی آنها نداریم، و فکر می کنم این خطرات زیادی را به همراه دارد، (اما) شاید به معنای واقعی کلمه وجودی نباشد. آنها.”
مدت ها قبل از ChatGPT، مارکوس اولین برنامه هوش مصنوعی خود را در دبیرستان طراحی کرد – یک نرم افزار ترجمه لاتین به انگلیسی – و پس از سال ها مطالعه در زمینه روانشناسی کودک، Geometric Intelligence را تأسیس کرد، یک شرکت یادگیری ماشینی که بعداً توسط Uber خریداری شد.
“چرا هوش مصنوعی؟”
در ماه مارس، مارکوس که نگران این بود که OpenAI خالق ChatGPT در حال راه اندازی جدیدترین و قدرتمندتر مدل هوش مصنوعی خود با مایکروسافت است، نامه ای سرگشاده با بیش از 1000 نفر از جمله ایلان ماسک امضا کرد و خواستار توقف جهانی در توسعه هوش مصنوعی شد.
اما هفته گذشته او بیانیه کوتاهتر رهبران تجاری و کارشناسان – از جمله سام آلتمن، رئیس OpenAI – را امضا نکرد که سر و صدای زیادی به پا کرد.
امضاکنندگان تاکید کردند که رهبران جهانی باید برای کاهش “خطر انقراض” ناشی از فناوری هوش مصنوعی تلاش کنند.
در بیانیه تک خطی آمده است که مقابله با خطرات هوش مصنوعی باید “یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند بیماری های همه گیر و جنگ هسته ای” باشد.
امضاکنندگان شامل آن دسته از سیستمهای ساختمانی با هدف دستیابی به هوش مصنوعی «عمومی» بودند، فناوریای که تواناییهای شناختی را با تواناییهای انسان حفظ میکند.
«اگر واقعاً فکر میکنید که یک خطر وجودی وجود دارد، چرا روی آن کار میکنید؟ مارکوس گفت: این یک سوال کاملاً منصفانه است.
مارکوس پیشنهاد کرد به جای تمرکز بر سناریوهای دور از ذهن که هیچ کس زنده نمی ماند، جامعه باید روی جایی که خطرات واقعی نهفته است تمرکز کند.
وی ادامه داد: مردم می توانند با استفاده از هوش مصنوعی بازارها را دستکاری کنند تا انواع هرج و مرج ایجاد کنند و سپس می توانیم به عنوان مثال روس ها را مقصر بدانیم و بگوییم ببینید آنها با کشور ما چه کردند در حالی که روس ها واقعاً درگیر نیستند. .
شما (ممکن است) این تشدید را داشته باشید که به جنگ هسته ای یا چیزی شبیه به آن ختم شود. بنابراین من فکر می کنم سناریوهایی وجود دارد که در آنها کاملاً جدی است. انقراض؟ نمی دانم.”
تهدیدی برای دموکراسی
در کوتاه مدت، روانشناس نگران دموکراسی است.
نرم افزار هوش مصنوعی مولد عکس های تقلبی و به زودی ویدیوهای متقاعد کننده فزاینده ای را با هزینه کم تولید می کند.
در نتیجه، “انتخابات توسط افرادی برنده خواهد شد که در انتشار اطلاعات نادرست بهتر عمل می کنند، و این افراد می توانند قوانین را تغییر دهند و ادامه دموکراسی را واقعا دشوار کنند.”
علاوه بر این، “دموکراسی مبتنی بر در دسترس بودن اطلاعات معقول و اتخاذ تصمیمات خوب است. اگر هیچ کس نمی داند چه چیزی را باید باور کند، پس چگونه می توانید با دموکراسی پیش بروید؟”
با این حال، نویسنده کتاب Rebooting AI فکر نمیکند که ما باید امید خود را از دست بدهیم، و هنوز هم شاهد «خوبیهای زیادی» هستیم.
مارکوس گفت، قطعاً این شانس وجود دارد که هوش مصنوعی، که هنوز اختراع نشده است، “به علم، پزشکی و مراقبت از سالمندان کمک کند.”
اما در کوتاه مدت، احساس میکنم که آماده نیستیم. در این راه آسیب هایی وجود خواهد داشت و ما واقعاً نیاز داریم که بازی خود را ارتقا دهیم، باید مقرراتی جدی در نظر بگیریم.”
در جلسه استماع سنای ایالات متحده در ماه مه، مارکوس در کنار Altman از OpenAI، برای ایجاد یک آژانس ملی یا بینالمللی مسئول مدیریت هوش مصنوعی استدلال کرد.
این ایده همچنین توسط آلتمن، که به تازگی از یک تور اروپایی بازگشته است، حمایت میشود، جایی که از رهبران سیاسی خواسته بود تا “توازن مناسب” بین ایمنی و نوآوری را بیابند.
مارکوس هشدار داد اما در مورد واگذاری قدرت به شرکتها مراقب باشید.
او هشدار داد: «چند ماه گذشته یادآور این موضوع بود که شرکتهای بزرگی که در اینجا اداره میشوند لزوماً به بقیه اهمیت نمیدهند.