انقلاب هوش مصنوعی در نقطه اوج قرار دارد
برخی از فنآوران میخواهند توسعه مداوم سیستمهای هوش مصنوعی را قبل از اینکه مسیرهای عصبی یادگیری ماشینی با استفاده مورد نظر خالقان انسانی مخالفت کنند، متوقف کنند. دیگر کارشناسان کامپیوتر استدلال می کنند که اشتباهات اجتناب ناپذیر هستند و توسعه باید ادامه یابد.
بیش از 1000 فناور و صاحب نظر هوش مصنوعی اخیراً طوماری را برای صنعت رایانه امضا کرده اند تا آموزش سیستم های هوش مصنوعی قدرتمندتر از GPT-4 را به مدت شش ماه متوقف کند. حامیان از توسعه دهندگان هوش مصنوعی می خواهند که استانداردهای ایمنی ایجاد کنند و خطرات احتمالی ناشی از پرخطرترین فناوری های هوش مصنوعی را کاهش دهند.
موسسه غیرانتفاعی Future of Life این طومار را سازماندهی کرد که خواستار فسخ عمومی و قابل تأیید تقریباً فوری توسط همه توسعه دهندگان کلیدی است. در غیر این صورت دولت ها باید وارد عمل شوند و مهلت قانونی وضع کنند. از این هفته، موسسه آینده زندگی می گوید که بیش از 50000 امضا جمع آوری کرده است که مراحل تأیید را طی می کنند.
این نامه تلاشی برای متوقف کردن همه توسعه های هوش مصنوعی به طور کلی نیست. در عوض، طرفداران آن از توسعهدهندگان میخواهند که از رقابت خطرناک «به سمت مدلهای جعبه سیاه بزرگتر و غیرقابل پیشبینیتر از قابلیتهای نوظهور» بروند. در طول دوره انتظار، آزمایشگاههای هوش مصنوعی و کارشناسان مستقل باید به طور مشترک مجموعهای از پروتکلهای ایمنی مشترک را برای طراحی و توسعه هوش مصنوعی پیشرفته ایجاد و اجرا کنند.
در این نامه آمده است: «تحقیق و توسعه هوش مصنوعی باید دوباره بر روی ساختن سیستمهای قدرتمند و پیشرفته امروزی دقیقتر، ایمنتر، قابل تفسیرتر، شفافتر، قویتر، همسوتر، قابل اعتمادتر و وفادارتر متمرکز شود.
پشتیبانی جهانی نیست
جان بامبنک، رئیس شکارچی تهدیدات در شرکت تجزیه و تحلیل عملیات و امنیت SaaS Netenrich، پیشنهاد کرد که هیچ کسی نمی تواند چیزی را متوقف کند. با این حال، او متوجه می شود که توجه به پیامدهای اخلاقی پروژه های هوش مصنوعی بسیار از سرعت توسعه عقب است.
بامبنک به دیجیتال تو گفت: «من فکر میکنم خوب است که کاری را که انجام میدهیم و تأثیرات عمیقی که خواهد داشت، ارزیابی کنیم، زیرا قبلاً شاهد شکستهای خیرهکنندهای در اجرای بیملاحظه AI/ML بودهایم.
اندرو بارات، معاون شرکت مشاوره امنیت سایبری کوالفایر، افزود: هر کاری که ما برای متوقف کردن چیزها در فضای هوش مصنوعی انجام می دهیم، احتمالا فقط سر و صدا است. همچنین انجام این کار در سطح جهانی به صورت هماهنگ غیرممکن است.
هوش مصنوعی محرک بهره وری چند نسل آینده خواهد بود. این خطر این است که ببینیم آن را جایگزین موتورهای جستجو می کنیم و سپس توسط تبلیغ کنندگانی که محصولات خود را “هوشمندانه” در پاسخ ها قرار می دهند، کسب درآمد می کنند. بارت به دیجیتال تو گفت: جالب توجه است که به نظر می رسد اوج ترس پس از توجه اخیر به ChatGPT ایجاد شده است.
به جای مکث، بارات توصیه می کند کارکنان دانش در سراسر جهان را تشویق کنند تا به بهترین نحو از ابزارهای مختلف هوش مصنوعی استفاده کنند که کاربر پسندتر می شوند تا به افزایش بهره وری کمک کنند. کسانی که این کار را نکنند، عقب خواهند ماند.
به گفته دیو گری، مدیر عامل شرکت امنیت سایبری Bugcrowd، امنیت و حریم خصوصی باید همچنان دغدغه اصلی هر شرکت فناوری باشد، خواه متمرکز بر هوش مصنوعی باشد یا نباشد. وقتی صحبت از هوش مصنوعی به میان میآید، اطمینان از اینکه مدل دارای پادمانهای لازم، بازخورد و مکانیزمی برای برجسته کردن مسائل ایمنی است، بسیار مهم است.
از آنجایی که سازمانها به سرعت هوش مصنوعی را برای تمام مزایای آن در بهرهوری، بهرهوری و دموکراسیسازی دادهها اتخاذ میکنند، مهم است که اطمینان حاصل شود که وقتی نگرانیها شناسایی میشوند، مکانیزم گزارشدهی برای افشای آنها به همان روشی وجود دارد که آسیبپذیری امنیتی شناسایی و گزارش میشود. گری به دیجیتال تو گفت.
برجسته کردن نگرانی های مشروع
در چیزی که ممکن است یک پاسخ معمولی فزاینده به نیاز به تنظیم هوش مصنوعی باشد، آنتونی فیگوئروا، کارشناس یادگیری ماشین، یکی از بنیانگذاران و مدیر ارشد فناوری شرکت توسعه نرمافزار مبتنی بر نتایج Rootstrap، از تنظیم هوش مصنوعی پشتیبانی میکند. منجر به هر گونه تغییر مهم خواهد شد.
Figueroa از داده های بزرگ و یادگیری ماشینی برای کمک به شرکت ها برای ایجاد راه حل های نوآورانه برای کسب درآمد از خدمات خود استفاده می کند. اما او تردید دارد که تنظیم کننده ها با سرعت مناسب حرکت کنند و پیامدهای آنچه را که قرار است تنظیم کنند را درک کنند. او این چالش را شبیه به چالشی که دو دهه پیش توسط رسانه های اجتماعی مطرح شد، می بیند.
“من فکر می کنم نامه ای که آنها نوشتند مهم است. ما در نقطه اوج هستیم و باید به پیشرفت هایی فکر کنیم که قبلاً نداشته ایم. من فکر نمیکنم توقف چیزی برای شش ماه، یک سال، دو سال یا یک دهه امکانپذیر باشد.»
ناگهان، همه چیز با هوش مصنوعی به چیز بزرگ بعدی جهانی تبدیل شد. موفقیت واقعی یک شبه محصول OpenAI ChatGPT به طور ناگهانی باعث شد که جهان بنشیند و به قدرت و پتانسیل عظیم فناوریهای هوش مصنوعی و ML توجه کند.
ما هنوز پیامدهای این فناوری را نمی دانیم. این چه خطراتی دارد؟ ما چند چیز را می دانیم که می تواند با این شمشیر دو لبه اشتباه کند.» او هشدار داد.
آیا هوش مصنوعی نیاز به مقررات دارد؟
دیجیتال تو با Anthony Figueroa در مورد مسائل مربوط به نیاز به کنترل توسعه دهندگان بر یادگیری ماشین و نیاز بالقوه به مقررات دولتی هوش مصنوعی بحث کرد.
دیجیتال تو: در صنعت کامپیوتر، چه دستورالعملها و اصول اخلاقی وجود دارد که ایمن در مسیر باقی بماند؟
آنتونی فیگوئرا: شما به مجموعه ای از اخلاق شخصی در ذهن خود نیاز دارید. اما حتی با آن هم می توانید عواقب ناخواسته زیادی داشته باشید. کاری که ما با این فناوری جدید انجام می دهیم، برای مثال ChatGPT، قرار دادن هوش مصنوعی در معرض حجم زیادی از داده ها است.
این داده ها از منابع عمومی و خصوصی و چیزهای مختلف می آید. ما از تکنیکی به نام یادگیری عمیق استفاده می کنیم که مبتنی بر مطالعه نحوه عملکرد مغز ما است.
این چگونه بر استفاده از اخلاق و دستورالعمل ها تأثیر می گذارد؟
فیگوروآ: گاهی اوقات ما حتی نمیدانیم که هوش مصنوعی چگونه یک مشکل را به روشی خاص حل میکند. ما فرآیند تفکر در اکوسیستم هوش مصنوعی را درک نمی کنیم. به این مفهومی به نام توضیح پذیر اضافه کنید. شما باید بتوانید تعیین کنید که چگونه تصمیم گرفته شده است. اما با هوش مصنوعی، این همیشه قابل توضیح نیست و نتایج متفاوتی دارد.
این عوامل در هوش مصنوعی چگونه متفاوت هستند؟
فیگوروآ: هوش مصنوعی قابل توضیح کمی قدرت کمتری دارد، زیرا محدودیتهای بیشتری دارید، اما از طرف دیگر، شما مسئله اخلاق را دارید.
برای مثال، پزشکانی را در نظر بگیرید که با یک مورد سرطان سروکار دارند. آنها چندین روش درمانی را ارائه می دهند. یکی از این سه دارو کاملاً خود توضیحی است و به بیمار 60 درصد شانس درمان می دهد. سپس آنها یک درمان غیرقابل توضیح دارند که بر اساس داده های تاریخی، 80 درصد شانس درمان خواهد داشت، اما آنها واقعاً نمی دانند چرا.
این ترکیب داروها به همراه DNA بیمار و سایر عوامل بر نتیجه تأثیر می گذارد. پس بیمار باید چه بخورد؟ می دانید، تصمیم سختی است.
چگونه “هوش” را از نظر توسعه هوش مصنوعی تعریف می کنید؟
فیگوروآ: هوش را می توان توانایی حل مشکلات تعریف کرد. کامپیوترها مسائل را به روشی بسیار متفاوت از انسان حل می کنند. ما آنها را با ترکیب وظیفهشناسی و هوش حل میکنیم، که به ما این توانایی را میدهد تا مسائل را درک کنیم و مشکلات را با هم حل کنیم.
هوش مصنوعی مشکلات را با تمرکز بر نتایج حل خواهد کرد. یک مثال معمولی خودروهای خودران است. اگر همه نتایج بد باشند چه؟
یک خودروی خودران از بین همه نتایج ممکن کمترین بد را انتخاب می کند. اگر هوش مصنوعی مجبور است یک مانور ناوبری را انتخاب کند که یا “راننده مسافر” را بکشد یا دو نفر را در جاده ای که از چراغ قرمز عبور می کنند، بکشد، می توانید به هر طریقی این کار را انجام دهید.
می توانید دلیل کنید که عابران پیاده اشتباه کرده اند. بنابراین هوش مصنوعی یک قضاوت اخلاقی می کند و می گوید بیایید عابران پیاده را بکشیم. یا ممکن است هوش مصنوعی بگوید، بیایید سعی کنیم تا حد امکان کمتر مردم را بکشیم. جواب صحیحی وجود ندارد.
در مورد مسائل مربوط به مقررات چطور؟
فیگوروآ: فکر می کنم هوش مصنوعی باید تنظیم شود. ما ممکن است توسعه یا نوآوری را تا زمانی که یک ارزیابی نظارتی روشن داشته باشیم، متوقف کنیم. ما آن را نخواهیم داشت. ما دقیقاً نمی دانیم چه چیزی را تنظیم می کنیم یا چگونه مقررات را اجرا کنیم. بنابراین ما باید یک راه جدید برای تنظیم ایجاد کنیم.
یکی از کارهایی که توسعه دهندگان OpenAI به خوبی انجام می دهند، ساختن برجسته فناوری خود است. توسعه دهندگان می توانند دو سال دیگر روی فناوری خود کار کنند و فناوری بسیار پیچیده تری ارائه دهند. اما آنها تصمیم گرفتند پیشرفت فعلی را در معرض دید جهانیان قرار دهند تا مردم بتوانند در مورد مقررات و اینکه چه نوع مقرراتی می تواند در مورد آن اعمال شود فکر کنند.
فرآیند ارزیابی را چگونه شروع می کنید؟
فیگوروآ: همه چیز با دو سوال شروع می شود. یکی اینکه مقررات چیست؟ این دستورالعملی است که توسط یک مقام تهیه و نگهداری می شود. سپس سؤال دوم این است که چه کسی مرجع است – نهادی که قدرت صدور دستور، تصمیم گیری و اجرای آن تصمیمات را دارد؟
در رابطه با دو سوال اول، سوال سوم این است که کاندیداها چه کسانی یا چه کسانی هستند؟ ما میتوانیم دولتی مستقر در یک کشور یا نهادهای ملی جداگانه مانند سازمان ملل داشته باشیم که ممکن است در این شرایط ناتوان باشد.
وقتی خود تنظیم صنعت دارید، می توانید بهترین راه را مطرح کنید. اما شما بازیگران بد زیادی خواهید داشت. شما میتوانید سازمانهای حرفهای داشته باشید، اما در نهایت با بوروکراسی بیشتری مواجه خواهید شد. در همین حال، هوش مصنوعی با سرعت خیره کننده ای حرکت می کند.
به نظر شما بهترین رویکرد چیست؟
فیگوروآ: این باید ترکیبی از دولت، صنعت، سازمان های حرفه ای و شاید سازمان های غیردولتی باشد که با هم کار می کنند. اما من خیلی خوشبین نیستم و فکر نمی کنم آنها راه حل کافی برای آنچه در راه است پیدا کنند.
آیا راهی برای مقابله با هوش مصنوعی و ML وجود دارد تا در صورت تجاوز موضوع از دستورالعمل ها، اقدامات ایمنی موقتی را معرفی کنیم؟
فیگوروآ: شما همیشه می توانید این کار را انجام دهید. اما یک چالش ناتوانی در پیشبینی تمام نتایج بالقوه این فناوریها است.
در حال حاضر، همه پسران بزرگ در صنعت – OpenAI، مایکروسافت، گوگل – در حال کار بر روی فناوری اساسی تر هستند. همچنین، بسیاری از شرکتهای هوش مصنوعی با استفاده از فناوری در حال ایجاد، با سطح دیگری از انتزاع کار میکنند. اما آنها قدیمی ترین موجودات هستند.
بنابراین شما مغز ژنتیکی دارید که هر کاری می خواهید انجام دهید. اگر اصول اخلاقی و رویههای مناسب را در نظر بگیرید، میتوانید اثرات نامطلوب را کاهش دهید، ایمنی را افزایش دهید و سوگیری را کاهش دهید. اما شما اصلا نمی توانید آن را حذف کنید. ما باید با آن زندگی کنیم و مقداری پاسخگویی و مقررات ایجاد کنیم. اگر نتیجه نامطلوبی رخ دهد، باید مشخص کنیم که مسئولیت آن چه کسی است. من فکر می کنم این کلید است.
اکنون برای ترسیم مسیر استفاده ایمن از هوش مصنوعی و ML چه باید کرد؟
فیگوروآ: اول این است که ما همه چیز را نمی دانیم و می پذیریم که عواقب منفی در پی خواهد داشت. در درازمدت، هدف این است که نکات مثبت بیشتر از موارد منفی باشد.
در نظر بگیرید که انقلاب هوش مصنوعی در حال حاضر غیرقابل پیش بینی اما اجتناب ناپذیر است. شما می توانید استدلال کنید که می توان مقرراتی وضع کرد و خوب است که سرعت خود را کم کنیم و اطمینان حاصل کنیم که تا حد امکان ایمن هستیم. بپذیرید که ما متحمل عواقب منفی خواهیم شد، به این امید که اثرات بلندمدت آن بسیار بهتر باشد و جامعه بسیار بهتری را به ما بدهد.