تکنولوژی

کارشناسان هوش مصنوعی با استناد به تحقیقات خود کمپین تحت حمایت ایلان ماسک را رد می کنند

چهار کارشناس هوش مصنوعی پس از استناد به کارشان در نامه ای سرگشاده – با امضای ایلان ماسک – که خواستار توقف اضطراری تحقیقات شدند، ابراز نگرانی کردند.

این نامه به تاریخ 22 مارس و با بیش از 1800 امضا تا جمعه، خواستار توقف شش ماهه توسعه سیستم‌هایی «قوی‌تر» از OpenAI GPT-4 جدید مایکروسافت است که می‌تواند از مکالمه انسانی پشتیبانی کند، آهنگ بسازد و خلاصه‌ای طولانی داشته باشد. اسناد.

از زمانی که نسخه قبلی ChatGPT GPT-4 در سال گذشته راه اندازی شد، شرکت های رقیب به سرعت محصولات مشابهی را عرضه کردند.

در این نامه سرگشاده آمده است که سیستم‌های هوش مصنوعی با «هوش رقابتی انسانی» خطرات عمده‌ای برای بشریت به همراه دارند و به 12 مطالعه انجام شده توسط کارشناسان، از جمله دانشگاهیان، و همچنین کارکنان فعلی و سابق OpenAI، گوگل و شرکت‌های تابعه آن DeepMind اشاره شده است.

گروه های جامعه مدنی در ایالات متحده و اتحادیه اروپا از آن زمان به قانونگذاران فشار آورده اند تا تحقیقات OpenAI را محدود کنند. OpenAI بلافاصله به درخواست ها برای اظهار نظر پاسخ نداد.

منتقدان مؤسسه آینده زندگی (FLI) را متهم کردند، سازمانی که پشت این نامه قرار دارد و عمدتاً توسط بنیاد ماسک تأمین مالی می شود، به سناریوهای آخرالزمانی خیالی نسبت به نگرانی های فوری تر در مورد هوش مصنوعی، مانند سوگیری نژادپرستانه یا جنسیتی که در ماشین ها برنامه ریزی شده است، اولویت دارد.

از جمله مطالعات ذکر شده، در مورد خطرات طوطی های تصادفی، مقاله معروفی است که با همکاری مارگارت میچل، که قبلاً تحقیقات اخلاقی هوش مصنوعی در گوگل را رهبری کرده بود، می باشد.

مطلب پیشنهادی:  مدیر عامل UnitedHealth می گوید که این شرکت 22 میلیون دلار به عنوان باج به هکرها پرداخت کرده است

میچل، اکنون دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face، از نامه انتقاد کرد و به رویترز گفت که مشخص نیست چه چیزی “قدرتمندتر از GPT4” در نظر گرفته می شود.

او گفت: «با بدیهی گرفتن بسیاری از ایده‌های مشکوک، این نامه مجموعه‌ای از اولویت‌ها و روایتی را درباره هوش مصنوعی ارائه می‌کند که به نفع حامیان FLI است. نادیده گرفتن آسیب فعال در حال حاضر امتیازی است که برخی از ما از آن برخوردار نیستیم.

نویسندگان همکار او تیمنیت گبرو و امیلی ام. بندر از این نامه در توییتر انتقاد کردند و این نامه برخی از ادعاهای آن را “بیهوده” خواند.

مکس تگمارک، رئیس FLI به رویترز گفت که این کمپین تلاشی برای خنثی کردن مزیت شرکتی OpenAI نیست.

“خیلی سرگرم کننده است. من دیده ام که مردم می گویند “الون ماسک در تلاش است تا سرعت رقابت را کاهش دهد” و افزود که ماسک هیچ نقشی در تهیه پیش نویس نامه نداشته است. “این در مورد یک شرکت نیست.

خطرات در حال حاضر

Shiri Dorey-Hakochen، استادیار دانشگاه کانکتیکات نیز با ذکر کار خود در نامه مخالفت کرد. سال گذشته، او با همکاری یک مقاله تحقیقاتی استدلال کرد که استفاده گسترده از هوش مصنوعی خطرات جدی دارد.

تحقیقات او استدلال می‌کند که استفاده امروزی از سیستم‌های هوش مصنوعی می‌تواند بر تصمیم‌گیری در رابطه با تغییرات آب و هوا، جنگ هسته‌ای و سایر تهدیدات وجودی تأثیر بگذارد.

او به رویترز گفت: “هوش مصنوعی برای تشدید این خطرات نیازی به دستیابی به اطلاعات در سطح انسانی ندارد.”

خطرات غیر وجودی وجود دارد که واقعاً مهم هستند، اما در سطح هالیوود به آن‌ها توجه نمی‌شود.»

مطلب پیشنهادی:  سیارک 450 فوتی هیولا 2018 UQ1 به سمت زمین شارژ می شود! ناسا جزئیات را فاش می کند

تگمارک از FLI در پاسخ به سوالی درباره این انتقادات گفت که خطرات کوتاه مدت و بلندمدت هوش مصنوعی باید جدی گرفته شود.

«اگر از کسی نقل قول می‌کنیم، به این معناست که ادعا می‌کنیم که از آن جمله حمایت می‌کند. این بدان معنا نیست که او از نامه حمایت می کند یا ما از هر چیزی که او فکر می کند حمایت می کنیم.”

دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی مستقر در کالیفرنیا، که در نامه نیز از او نقل شده است، بر محتوای آن ایستاده و به رویترز گفت که منطقی است که رویدادهای قو سیاه را در نظر بگیریم – رویدادهایی که بعید به نظر می رسند اما پیامدهای ویرانگری خواهند داشت. .

در این نامه سرگشاده همچنین هشدار داده شده است که می‌توان از ابزارهای هوش مصنوعی برای پر کردن اینترنت با «تبلیغات و دروغ» استفاده کرد.

دوری هاکوهن با اشاره به افزایش اطلاعات نادرست در توییتر از زمان خرید پلتفرم که توسط گروه جامعه مدنی Common Cause و دیگران مستند شده است، گفت: امضای آن برای ماسک “بسیار ثروتمند” است.

توییتر به زودی ساختار هزینه جدیدی را برای دسترسی به داده های تحقیقاتی خود معرفی می کند که به طور بالقوه مانع از تحقیقات در مورد این موضوع می شود.

دوری هاکوهن گفت: «این تأثیر مستقیمی بر کار آزمایشگاه من و همچنین کار دیگرانی که اطلاعات نادرست و اطلاعات نادرست را مطالعه می کنند، داشته است. – ما با یک دست بسته به پشت کار می کنیم.

ماسک و توییتر بلافاصله به درخواست ها برای اظهار نظر پاسخ ندادند.

مطلب پیشنهادی:  تصویر روز نجوم ناسا 23 مارس 2023: کهکشان مارپیچی NGC 2841

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا