کامپیوتر

خالق ChatGPT یک برنامه پاداش باگ با جوایز نقدی راه اندازی کرده است


ChatGPT هنوز آنقدر هوشمند نیست که بتواند ایرادات خود را پیدا کند، بنابراین سازنده آن از مردم کمک می خواهد.

OpenAI روز سه‌شنبه یک برنامه پاداش باگ را معرفی کرد و افراد را تشویق کرد تا آسیب‌پذیری‌ها و باگ‌ها را در سیستم‌های هوش مصنوعی خود مانند ChatGPT و GPT-4 پیدا کنند و گزارش دهند.

OpenAI در پستی در وب‌سایت خود که جزئیات این برنامه را تشریح می‌کند، گفت که پاداش برای گزارش‌ها از ۲۰۰ دلار برای یافته‌های کم گرانش تا ۲۰ هزار دلار برای آنچه «اکتشافات برجسته» نامیده می‌شود، متغیر است.

این شرکت تحت حمایت مایکروسافت گفت که جاه طلبی آن ایجاد سیستم‌های هوش مصنوعی است که «به نفع همه باشد» و افزود: «برای این منظور، ما سرمایه‌گذاری زیادی در تحقیقات و مهندسی می‌کنیم تا مطمئن شویم سیستم‌های هوش مصنوعی ما ایمن و ایمن هستند. با این حال، مانند هر فناوری پیچیده، می‌دانیم که آسیب‌پذیری‌ها و نقص‌ها ممکن است رخ دهد.

OpenAI در تماس با محققان امنیتی که علاقه مند به شرکت در این برنامه هستند، گفت: «اهمیت حیاتی امنیت را به رسمیت می شناسد و آن را به عنوان یک تلاش مشترک می بیند. با به اشتراک گذاشتن یافته‌های خود، نقش مهمی در ایمن‌تر کردن فناوری ما برای همه ایفا خواهید کرد.»

با افزایش روزافزون افرادی که از ChatGPT و سایر محصولات OpenAI برای چرخش استفاده می کنند، این شرکت مشتاق است هر گونه مشکل بالقوه را سریع ردیابی کند تا اطمینان حاصل شود که سیستم ها به خوبی اجرا می شوند و از سوء استفاده از هر گونه ضعف برای اهداف شوم جلوگیری می کنند. به همین دلیل OpenAI امیدوار است که با تعامل با جامعه فناوری، بتواند هر مشکلی را قبل از تبدیل شدن به یک مشکل جدی‌تر حل کند.

مطلب پیشنهادی:  نسخه آزمایشی رایگان آنتی ویروس نورتون: یک هفته محافظت دریافت کنید

این شرکت مستقر در کالیفرنیا قبلاً یک ترس داشت وقتی که یک باگ سرصفحه‌های مکالمات برخی از کاربران را در حالی که باید خصوصی باقی می‌ماند فاش کرد.

سام آلتمن، مدیر عامل OpenAI، پس از این حادثه ماه گذشته گفت که او این اتفاق ناگوار در حفظ حریم خصوصی را یک “مسئله مهم” می داند و افزود: “ما نسبت به آن احساس وحشتناکی داریم.” قبلاً رفع شده است.

این گاف زمانی که ایتالیا نگرانی‌های جدی در مورد نقض حریم خصوصی ایجاد کرد و تصمیم گرفت ChatGPT را در حین انجام تحقیقات کامل ممنوع کند، به مشکل بزرگ‌تری برای OpenAI تبدیل شد. مقامات ایتالیایی همچنین خواستار جزئیات اقدامات OpenAI هستند تا از تکرار این اتفاق جلوگیری کند.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا