کامپیوتر

OpenAI می خواهد شخصی را برای مقابله با خطرات ChatGPT استخدام کند که قابل پیش بینی نیست

OpenAI روی نقشی که برای جلوگیری از خطرات هوش مصنوعی قبل از توسعه آنها طراحی شده است، شرط بندی می کند. این شرکت یک موقعیت ارشد جدید به نام Head of Readiness منتشر کرده است، موقعیتی که بر شناسایی و کاهش جدی ترین خطراتی که می تواند از چت ربات های پیشرفته هوش مصنوعی ناشی شود، متمرکز است. همراه با این مسئولیت، یک بسته غرامت 555000 دلاری به اضافه حقوق صاحبان سهام ارائه می شود.

در یک پست عمومی که این کشف را اعلام کرد، سم آلتمن آن را “نقشی حیاتی در یک زمان مهم” خواند و اشاره کرد که در حالی که مدل‌های هوش مصنوعی در حال حاضر قادر به “خیلی چیزهای جالب” هستند، آنها همچنین “شروع به ارائه برخی چالش‌های واقعی کرده‌اند.”

در حال استخدام رئیس بخش آمادگی هستیم. این یک نقش حیاتی در یک زمان مهم است. مدل‌ها به سرعت در حال پیشرفت هستند و اکنون قادر به انجام بسیاری از چیزهای جالب هستند، اما آنها همچنین شروع به ارائه برخی چالش‌های واقعی کرده‌اند. تاثیر بالقوه مدل ها بر سلامت روان چیزی بود که…

– سم آلتمن (@sama) 27 دسامبر 2025

کاری که رئیس آمادگی واقعاً انجام خواهد داد

فردی که در این موقعیت قرار دارد بر خطرات شدید اما واقعی هوش مصنوعی، از جمله سوء استفاده، تهدیدات امنیت سایبری، مسائل بیولوژیکی و آسیب های عمومی گسترده تر تمرکز خواهد کرد. سام آلتمن گفت که OpenAI اکنون نیاز به “درک دقیق تری” از نحوه سوء استفاده از قابلیت های رو به رشد بدون مسدود کردن مزایا دارد.

مطلب پیشنهادی:  به یک لپ تاپ ویندوزی ارزان نیاز دارید؟ این HP 14 اینچی امروز 169 دلار قیمت دارد

او همچنین کار را کت قند نکرد. آلتمن نوشت: «این یک شغل پر استرس خواهد بود.

این استخدام در زمان حساسی برای OpenAI انجام می شود، که در سال گذشته با نظارت های نظارتی فزاینده ای در مورد ایمنی هوش مصنوعی مواجه شده است. این فشار در بحبوحه ادعاهایی که تعاملات ChatGPT را به چندین مورد خودکشی مرتبط می کند تشدید شده است و نگرانی های گسترده تری را در مورد تأثیر هوش مصنوعی بر سلامت روان ایجاد می کند.

در یک مورد، والدین یک نوجوان 16 ساله از OpenAI شکایت کردند، پس از اینکه ادعا کردند ربات چت پسرشان را تشویق کرده است که خودکشی کند و این باعث شد تا شرکت اقدامات ایمنی جدیدی را برای کاربران زیر 18 سال معرفی کند.

شکایت دیگری ادعا می‌کند که ChatGPT در پرونده‌ای جداگانه به توهمات پارانوئیدی دامن زد که به قتل و خودکشی ختم شد و OpenAI را بر آن داشت که بگوید روی راه‌های بهتری برای تشخیص پریشانی، کاهش تنش‌ها و هدایت کاربران به پشتیبانی دنیای واقعی کار می‌کند.

تلاش OpenAI برای ایمنی در حالی صورت می‌گیرد که میلیون‌ها نفر از وابستگی عاطفی به ChatGPT گزارش می‌دهند و تنظیم‌کننده‌ها در حال بررسی خطرات برای کودکان هستند و نشان می‌دهند که چرا آمادگی فراتر از مهندسی اهمیت دارد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا