کارشناسان هوش مصنوعی با استناد به تحقیقات خود کمپین تحت حمایت ایلان ماسک را رد می کنند
چهار کارشناس هوش مصنوعی پس از استناد به کارشان در نامه ای سرگشاده – با امضای ایلان ماسک – که خواستار توقف اضطراری تحقیقات شدند، ابراز نگرانی کردند.
این نامه به تاریخ 22 مارس و با بیش از 1800 امضا تا جمعه، خواستار توقف شش ماهه توسعه سیستمهایی «قویتر» از OpenAI GPT-4 جدید مایکروسافت است که میتواند از مکالمه انسانی پشتیبانی کند، آهنگ بسازد و خلاصهای طولانی داشته باشد. اسناد.
از زمانی که نسخه قبلی ChatGPT GPT-4 در سال گذشته راه اندازی شد، شرکت های رقیب به سرعت محصولات مشابهی را عرضه کردند.
در این نامه سرگشاده آمده است که سیستمهای هوش مصنوعی با «هوش رقابتی انسانی» خطرات عمدهای برای بشریت به همراه دارند و به 12 مطالعه انجام شده توسط کارشناسان، از جمله دانشگاهیان، و همچنین کارکنان فعلی و سابق OpenAI، گوگل و شرکتهای تابعه آن DeepMind اشاره شده است.
گروه های جامعه مدنی در ایالات متحده و اتحادیه اروپا از آن زمان به قانونگذاران فشار آورده اند تا تحقیقات OpenAI را محدود کنند. OpenAI بلافاصله به درخواست ها برای اظهار نظر پاسخ نداد.
منتقدان مؤسسه آینده زندگی (FLI) را متهم کردند، سازمانی که پشت این نامه قرار دارد و عمدتاً توسط بنیاد ماسک تأمین مالی می شود، به سناریوهای آخرالزمانی خیالی نسبت به نگرانی های فوری تر در مورد هوش مصنوعی، مانند سوگیری نژادپرستانه یا جنسیتی که در ماشین ها برنامه ریزی شده است، اولویت دارد.
از جمله مطالعات ذکر شده، در مورد خطرات طوطی های تصادفی، مقاله معروفی است که با همکاری مارگارت میچل، که قبلاً تحقیقات اخلاقی هوش مصنوعی در گوگل را رهبری کرده بود، می باشد.
میچل، اکنون دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face، از نامه انتقاد کرد و به رویترز گفت که مشخص نیست چه چیزی “قدرتمندتر از GPT4” در نظر گرفته می شود.
او گفت: «با بدیهی گرفتن بسیاری از ایدههای مشکوک، این نامه مجموعهای از اولویتها و روایتی را درباره هوش مصنوعی ارائه میکند که به نفع حامیان FLI است. نادیده گرفتن آسیب فعال در حال حاضر امتیازی است که برخی از ما از آن برخوردار نیستیم.
نویسندگان همکار او تیمنیت گبرو و امیلی ام. بندر از این نامه در توییتر انتقاد کردند و این نامه برخی از ادعاهای آن را “بیهوده” خواند.
مکس تگمارک، رئیس FLI به رویترز گفت که این کمپین تلاشی برای خنثی کردن مزیت شرکتی OpenAI نیست.
“خیلی سرگرم کننده است. من دیده ام که مردم می گویند “الون ماسک در تلاش است تا سرعت رقابت را کاهش دهد” و افزود که ماسک هیچ نقشی در تهیه پیش نویس نامه نداشته است. “این در مورد یک شرکت نیست.
خطرات در حال حاضر
Shiri Dorey-Hakochen، استادیار دانشگاه کانکتیکات نیز با ذکر کار خود در نامه مخالفت کرد. سال گذشته، او با همکاری یک مقاله تحقیقاتی استدلال کرد که استفاده گسترده از هوش مصنوعی خطرات جدی دارد.
تحقیقات او استدلال میکند که استفاده امروزی از سیستمهای هوش مصنوعی میتواند بر تصمیمگیری در رابطه با تغییرات آب و هوا، جنگ هستهای و سایر تهدیدات وجودی تأثیر بگذارد.
او به رویترز گفت: “هوش مصنوعی برای تشدید این خطرات نیازی به دستیابی به اطلاعات در سطح انسانی ندارد.”
خطرات غیر وجودی وجود دارد که واقعاً مهم هستند، اما در سطح هالیوود به آنها توجه نمیشود.»
تگمارک از FLI در پاسخ به سوالی درباره این انتقادات گفت که خطرات کوتاه مدت و بلندمدت هوش مصنوعی باید جدی گرفته شود.
«اگر از کسی نقل قول میکنیم، به این معناست که ادعا میکنیم که از آن جمله حمایت میکند. این بدان معنا نیست که او از نامه حمایت می کند یا ما از هر چیزی که او فکر می کند حمایت می کنیم.”
دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی مستقر در کالیفرنیا، که در نامه نیز از او نقل شده است، بر محتوای آن ایستاده و به رویترز گفت که منطقی است که رویدادهای قو سیاه را در نظر بگیریم – رویدادهایی که بعید به نظر می رسند اما پیامدهای ویرانگری خواهند داشت. .
در این نامه سرگشاده همچنین هشدار داده شده است که میتوان از ابزارهای هوش مصنوعی برای پر کردن اینترنت با «تبلیغات و دروغ» استفاده کرد.
دوری هاکوهن با اشاره به افزایش اطلاعات نادرست در توییتر از زمان خرید پلتفرم که توسط گروه جامعه مدنی Common Cause و دیگران مستند شده است، گفت: امضای آن برای ماسک “بسیار ثروتمند” است.
توییتر به زودی ساختار هزینه جدیدی را برای دسترسی به داده های تحقیقاتی خود معرفی می کند که به طور بالقوه مانع از تحقیقات در مورد این موضوع می شود.
دوری هاکوهن گفت: «این تأثیر مستقیمی بر کار آزمایشگاه من و همچنین کار دیگرانی که اطلاعات نادرست و اطلاعات نادرست را مطالعه می کنند، داشته است. – ما با یک دست بسته به پشت کار می کنیم.
ماسک و توییتر بلافاصله به درخواست ها برای اظهار نظر پاسخ ندادند.