تکنولوژی

OpenAI به افراد برای گزارش آسیب‌پذیری‌ها در ChatGPT پول پرداخت می‌کند

OpenAI شروع به پرداخت 20000 دلار به مردم می کند تا به شرکت کمک کند تا اشکالات سیستم های هوش مصنوعی خود را پیدا کند، مانند ربات چت بسیار محبوب ChatGPT.

این شرکت هوش مصنوعی روز سه‌شنبه در یک پست وبلاگی نوشت که یک برنامه پاداش باگ راه‌اندازی کرده است که از طریق آن افراد می‌توانند ضعف‌ها، باگ‌ها یا مسائل امنیتی را که هنگام استفاده از محصولات هوش مصنوعی خود کشف می‌کنند، گزارش کنند. چنین برنامه‌هایی که در صنعت فناوری رایج هستند، شرکت‌ها را وادار می‌کنند تا به کاربران برای گزارش باگ‌ها یا سایر نقض‌های امنیتی پول پرداخت کنند. OpenAI گفت که آن را با مشارکت Bugcrowd Inc. که یک پلتفرم پاداش باگ است، منتشر می کند.

این شرکت بر اساس اندازه اشکالات پیدا شده، جوایز نقدی پرداخت خواهد کرد که از 200 دلار برای آنچه “یافته های کم شدت” می نامد تا 20000 دلار برای “اکتشافات استثنایی” متغیر است.

این شرکت گفت که بخشی از دلیل راه‌اندازی این برنامه این است که معتقد است «شفافیت و همکاری» کلید یافتن آسیب‌پذیری‌ها در فناوری آن است.

در پست وبلاگی که توسط متیو نایت، رئیس امنیت OpenAI نوشته شده است، آمده است: «این ابتکار بخش اساسی تعهد ما به توسعه هوش مصنوعی ایمن و پیشرفته است. از آنجایی که ما فناوری‌ها و خدماتی را می‌سازیم که ایمن، قابل اعتماد و قابل اعتماد هستند، از شما کمک می‌خواهیم.»

اعلامیه کاملاً غافلگیرکننده نیست. گرگ براکمن، رئیس و یکی از بنیانگذاران شرکت مستقر در سانفرانسیسکو، اخیراً در توییتر اشاره کرد که OpenAI “در حال بررسی راه اندازی یک برنامه جایزه” یا شبکه ای از “تیم های قرمز” برای یافتن آسیب پذیری ها است.

مطلب پیشنهادی:  WWDC 2023: تیم کوک به توییتر می آید و می گوید "برای رویداد ویژه ما هماهنگ شوید"

او این نظر را در پاسخ به پستی که توسط الکس آلبرت، 22 ساله از علاقه مندان به فرار از زندان نوشته شده بود، بیان کرد که وب سایتش دستورات نوشته شده ای را جمع آوری می کند که برای دور زدن محافظ های چت ربات هایی مانند ChatGPT طراحی شده است.

براکمن می نویسد: «اتحاد دموکراتیک قرمز یکی از دلایلی است که ما از این مدل ها استفاده می کنیم.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا