4 خطری که جفری هینتون پیشگام هوش مصنوعی را بیشتر نگران می کند
جفری هینتون، دانشمند کامپیوتری مشهور که به عنوان “پدرخوانده هوش مصنوعی” شناخته می شود، در مورد نتیجه کار خود جدی است.
هینتون به پیشگامی فناوریهای هوش مصنوعی کمک کرد که برای نسل جدیدی از چتباتهای بسیار توانمند مانند ChatGPT حیاتی هستند. اما در مصاحبههای اخیر، او میگوید که اخیراً از یک شغل برتر در گوگل استعفا داده است تا نگرانیهای خود را در مورد اینکه توسعه کنترلنشده هوش مصنوعی میتواند خطری برای بشریت ایجاد کند به اشتراک بگذارد.
او در مصاحبه ای با MIT Technology Review گفت: “من ناگهان دیدگاه خود را در مورد اینکه آیا این چیزها هوشمندتر از ما خواهند بود تغییر دادم.” “من فکر می کنم آنها در حال حاضر بسیار به آن نزدیک شده اند، و آنها در آینده بسیار باهوش تر از ما خواهند بود… چگونه از این وضعیت جان سالم به در ببریم؟”
هینتون در نگرانی های خود تنها نیست. اندکی پس از اینکه استارت آپ تحت حمایت مایکروسافت OpenAI آخرین مدل هوش مصنوعی خود را به نام GPT-4 در ماه مارس منتشر کرد، بیش از 1000 محقق و فناور نامه ای را امضا کردند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی شدند، زیرا به گفته آنها خطرات زیادی برای جامعه به همراه دارد. و انسانیت.”
در اینجا نگاهی داریم به بزرگترین نگرانی های هینتون در مورد آینده هوش مصنوعی… و بشریت.
همه چیز در مورد شبکه های عصبی است
مغز انسان ما به لطف استعداد ذاتی خود در سازماندهی و ذخیره اطلاعات و یافتن راه حل برای مسائل دشوار می تواند معادلات ریاضی را حل کند، ماشین سواری کند و شخصیت ها را در Inheritance دنبال کند. تقریباً 86 میلیارد نورون که در جمجمه ما جمع شده اند – و مهمتر از آن، 100 تریلیون ارتباطی که این نورون ها با یکدیگر برقرار می کنند – این امر را ممکن می کند.
هینتون در این مصاحبه گفت در مقابل، فناوری پشت ChatGPT بین 500 میلیارد تا یک تریلیون اتصال را شامل می شود. اگرچه به نظر می رسد که این موضوع آن را برای ما ضرر بزرگی قرار می دهد، اما هینتون خاطرنشان می کند که GPT-4، آخرین مدل هوش مصنوعی از OpenAI، “صدها برابر” بیشتر از هر انسان دیگری می داند. شاید، او پیشنهاد میکند که «الگوریتم یادگیری بسیار بهتری» نسبت به ما داشته باشد که آن را در کارهای شناختی کارآمدتر میکند.
ممکن است هوش مصنوعی از ما باهوشتر باشد
محققان مدتهاست متوجه شدهاند که یادگیری و بکارگیری دانش جدید شبکههای عصبی مصنوعی بسیار طولانیتر از انسانها طول میکشد، زیرا آموزش آنها به مقدار زیادی انرژی و داده نیاز دارد. هینتون استدلال میکند که دیگر اینطور نیست، و اشاره میکند که سیستمهایی مانند GPT-4 پس از آموزش صحیح توسط محققان میتوانند چیزهای جدید را خیلی سریع بیاموزند. این بی شباهت نیست که چگونه یک فیزیکدان حرفه ای آموزش دیده می تواند مغز خود را در اطراف یافته های تجربی جدید بسیار سریعتر از یک دانش آموز دبیرستانی معمولی بپیچد.
این امر هینتون را به این نتیجه می رساند که سیستم های هوش مصنوعی ممکن است در حال حاضر از ما پیشی بگیرند. او خاطرنشان میکند که نه تنها سیستمهای هوش مصنوعی میتوانند چیزها را سریعتر یاد بگیرند، بلکه میتوانند نسخههایی از دانش خود را نیز تقریباً فوراً با یکدیگر به اشتراک بگذارند.
او به این نشریه گفت: «این شکل کاملاً متفاوتی از هوش است. “شکل جدید و بهتری از هوش.”
جنگ ها و شایعات جنگ
سیستم های هوش مصنوعی هوشمندتر از انسان چه کاری انجام می دهند؟ یک احتمال نگران کننده این است که افراد، گروه ها یا دولت-ملت های بدخواه ممکن است به سادگی آنها را برای پیشبرد اهداف خود انتخاب کنند. هینتون به ویژه نگران است که این ابزارها برای تأثیرگذاری بر انتخابات و حتی راه اندازی جنگ آموزش داده شوند.
به عنوان مثال، انتشار اطلاعات نادرست انتخاباتی از طریق رباتهای چت هوش مصنوعی، میتواند نسخه آینده اطلاعات نادرست انتخاباتی باشد که از طریق فیسبوک و دیگر پلتفرمهای رسانههای اجتماعی منتشر میشود.
و این ممکن است تازه شروع کار باشد. هینتون در این مقاله می گوید: «حتی فکر نکنید که پوتین ربات های فوق هوشمندی برای کشتن اوکراینی ها نمی سازد. “او دریغ نمی کند.”
فقدان راه حل
چیزی که مشخص نیست این است که چگونه کسی می تواند قدرتی مانند روسیه را از استفاده از فناوری هوش مصنوعی برای تسلط بر همسایگان یا شهروندان خود باز دارد. هینتون پیشنهاد می کند که یک توافق جهانی مانند کنوانسیون تسلیحات شیمیایی 1997 می تواند اولین گام خوبی برای ایجاد قوانین بین المللی علیه هوش مصنوعی باشد.
اگرچه شایان ذکر است که معاهده تسلیحات شیمیایی آنچه را که بازرسان متوجه شدند حملات احتمالی سوریه با استفاده از گاز کلر و عامل اعصاب سارین علیه غیرنظامیان در سالهای 2017 و 2018 در جریان جنگ داخلی خونین این کشور بود، متوقف نکرد.