تکنولوژی

کارشناسان هوش مصنوعی با استناد به تحقیقات خود کمپین تحت حمایت ایلان ماسک را رد می کنند

چهار کارشناس هوش مصنوعی پس از استناد به کارشان در نامه ای سرگشاده – با امضای ایلان ماسک – که خواستار توقف اضطراری تحقیقات شدند، ابراز نگرانی کردند.

این نامه به تاریخ 22 مارس و با بیش از 1800 امضا تا جمعه، خواستار توقف شش ماهه توسعه سیستم‌هایی «قوی‌تر» از OpenAI GPT-4 جدید مایکروسافت است که می‌تواند از مکالمه انسانی پشتیبانی کند، آهنگ بسازد و خلاصه‌ای طولانی داشته باشد. اسناد.

از زمانی که نسخه قبلی ChatGPT GPT-4 در سال گذشته راه اندازی شد، شرکت های رقیب به سرعت محصولات مشابهی را عرضه کردند.

در این نامه سرگشاده آمده است که سیستم‌های هوش مصنوعی با «هوش رقابتی انسانی» خطرات عمده‌ای برای بشریت به همراه دارند و به 12 مطالعه انجام شده توسط کارشناسان، از جمله دانشگاهیان، و همچنین کارکنان فعلی و سابق OpenAI، گوگل و شرکت‌های تابعه آن DeepMind اشاره شده است.

گروه های جامعه مدنی در ایالات متحده و اتحادیه اروپا از آن زمان به قانونگذاران فشار آورده اند تا تحقیقات OpenAI را محدود کنند. OpenAI بلافاصله به درخواست ها برای اظهار نظر پاسخ نداد.

منتقدان مؤسسه آینده زندگی (FLI) را متهم کردند، سازمانی که پشت این نامه قرار دارد و عمدتاً توسط بنیاد ماسک تأمین مالی می شود، به سناریوهای آخرالزمانی خیالی نسبت به نگرانی های فوری تر در مورد هوش مصنوعی، مانند سوگیری نژادپرستانه یا جنسیتی که در ماشین ها برنامه ریزی شده است، اولویت دارد.

از جمله مطالعات ذکر شده، در مورد خطرات طوطی های تصادفی، مقاله معروفی است که با همکاری مارگارت میچل، که قبلاً تحقیقات اخلاقی هوش مصنوعی در گوگل را رهبری کرده بود، می باشد.

مطلب پیشنهادی:  این شرکت 900 شغل از بخش پلی استیشن خود را اخراج خواهد کرد

میچل، اکنون دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face، از نامه انتقاد کرد و به رویترز گفت که مشخص نیست چه چیزی “قدرتمندتر از GPT4” در نظر گرفته می شود.

او گفت: «با بدیهی گرفتن بسیاری از ایده‌های مشکوک، این نامه مجموعه‌ای از اولویت‌ها و روایتی را درباره هوش مصنوعی ارائه می‌کند که به نفع حامیان FLI است. نادیده گرفتن آسیب فعال در حال حاضر امتیازی است که برخی از ما از آن برخوردار نیستیم.

نویسندگان همکار او تیمنیت گبرو و امیلی ام. بندر از این نامه در توییتر انتقاد کردند و این نامه برخی از ادعاهای آن را “بیهوده” خواند.

مکس تگمارک، رئیس FLI به رویترز گفت که این کمپین تلاشی برای خنثی کردن مزیت شرکتی OpenAI نیست.

“خیلی سرگرم کننده است. من دیده ام که مردم می گویند “الون ماسک در تلاش است تا سرعت رقابت را کاهش دهد” و افزود که ماسک هیچ نقشی در تهیه پیش نویس نامه نداشته است. “این در مورد یک شرکت نیست.

خطرات در حال حاضر

Shiri Dorey-Hakochen، استادیار دانشگاه کانکتیکات نیز با ذکر کار خود در نامه مخالفت کرد. سال گذشته، او با همکاری یک مقاله تحقیقاتی استدلال کرد که استفاده گسترده از هوش مصنوعی خطرات جدی دارد.

تحقیقات او استدلال می‌کند که استفاده امروزی از سیستم‌های هوش مصنوعی می‌تواند بر تصمیم‌گیری در رابطه با تغییرات آب و هوا، جنگ هسته‌ای و سایر تهدیدات وجودی تأثیر بگذارد.

او به رویترز گفت: “هوش مصنوعی برای تشدید این خطرات نیازی به دستیابی به اطلاعات در سطح انسانی ندارد.”

خطرات غیر وجودی وجود دارد که واقعاً مهم هستند، اما در سطح هالیوود به آن‌ها توجه نمی‌شود.»

مطلب پیشنهادی:  مطالعه نشان می‌دهد که نمونه‌های سیارک بننو جمع‌آوری‌شده توسط OSIRIS-REx ناسا بلوک‌های سازنده حیات دارند.

تگمارک از FLI در پاسخ به سوالی درباره این انتقادات گفت که خطرات کوتاه مدت و بلندمدت هوش مصنوعی باید جدی گرفته شود.

«اگر از کسی نقل قول می‌کنیم، به این معناست که ادعا می‌کنیم که از آن جمله حمایت می‌کند. این بدان معنا نیست که او از نامه حمایت می کند یا ما از هر چیزی که او فکر می کند حمایت می کنیم.”

دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی مستقر در کالیفرنیا، که در نامه نیز از او نقل شده است، بر محتوای آن ایستاده و به رویترز گفت که منطقی است که رویدادهای قو سیاه را در نظر بگیریم – رویدادهایی که بعید به نظر می رسند اما پیامدهای ویرانگری خواهند داشت. .

در این نامه سرگشاده همچنین هشدار داده شده است که می‌توان از ابزارهای هوش مصنوعی برای پر کردن اینترنت با «تبلیغات و دروغ» استفاده کرد.

دوری هاکوهن با اشاره به افزایش اطلاعات نادرست در توییتر از زمان خرید پلتفرم که توسط گروه جامعه مدنی Common Cause و دیگران مستند شده است، گفت: امضای آن برای ماسک “بسیار ثروتمند” است.

توییتر به زودی ساختار هزینه جدیدی را برای دسترسی به داده های تحقیقاتی خود معرفی می کند که به طور بالقوه مانع از تحقیقات در مورد این موضوع می شود.

دوری هاکوهن گفت: «این تأثیر مستقیمی بر کار آزمایشگاه من و همچنین کار دیگرانی که اطلاعات نادرست و اطلاعات نادرست را مطالعه می کنند، داشته است. – ما با یک دست بسته به پشت کار می کنیم.

ماسک و توییتر بلافاصله به درخواست ها برای اظهار نظر پاسخ ندادند.

مطلب پیشنهادی:  گیگا ماینر بیت کوین مستقر در تگزاس با Phoenix Global در آرژانتین شریک شده است

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا