حتی OpenAI از تلاش برای کشف سرقت ادبی ChatGPT دست کشیده است
OpenAI، خالق چت ربات بسیار محبوب هوش مصنوعی (AI) ChatGPT، ابزاری را که برای تشخیص محتوای ایجاد شده توسط هوش مصنوعی ساخته شده است، نه انسان، تعطیل کرده است. OpenAI گفت این ابزار که AI Classifier نام دارد، تنها شش ماه پس از راه اندازی خود به دلیل “نرخ دقت پایین” آن بسته شد.
از آنجایی که محبوبیت ChatGPT و سرویسهای رقیب به شدت افزایش یافته است، گروههای مختلف نگران عواقب استفاده کنترلنشده از هوش مصنوعی هستند. از یک طرف، معلمان به طور خاص نگران این هستند که دانش آموزان از ChatGPT برای نوشتن مقالات و تکالیف خود استفاده کنند و سپس آنها را به عنوان انشای خود به اشتراک بگذارند.
طبقهبندیکننده هوش مصنوعی OpenAI تلاشی برای کاهش ترس این گروهها و سایر گروهها بود. ایده این بود که میتوانست تعیین کند که یک متن توسط یک انسان یا یک ربات چت هوش مصنوعی نوشته شده است، و به مردم ابزاری میدهد تا هم دانشآموزان نسبتاً نمره بدهند و هم با اطلاعات نادرست مبارزه کنند.
با این حال، حتی از همان ابتدا، OpenAI به ابزار خود چندان مطمئن به نظر نمی رسید. OpenAI در یک پست وبلاگی که این ابزار را اعلام کرد، اعلام کرد که “طبقه بندی کننده ما کاملا قابل اعتماد نیست” و اشاره کرد که تنها در 26 درصد مواقع متون نوشته شده با هوش مصنوعی را از یک “مجموعه چالش” به درستی شناسایی می کند.
تصمیم به کنار گذاشتن این ابزار با سر و صدای زیادی مواجه نشد و OpenAI یک پست اختصاصی در وب سایت خود منتشر نکرده است. در عوض، این شرکت پستی را که در آن طبقهبندیکننده هوش مصنوعی را فاش کرده بود، بهروزرسانی کرد و گفت که «ردهبندیکننده هوش مصنوعی به دلیل میزان دقت پایین آن دیگر در دسترس نیست».
این بهروزرسانی ادامه میدهد: «ما در حال کار برای ترکیب بازخورد هستیم و در حال حاضر در حال بررسی تکنیکهای منشأ متن کارآمدتر هستیم و متعهد به توسعه و اجرای مکانیسمهایی هستیم که به کاربران امکان میدهد بفهمند محتوای صوتی یا بصری توسط هوش مصنوعی تولید شده است یا خیر.»
ابزارهای بهتری مورد نیاز است
AI Classifier تنها ابزاری نیست که برای شناسایی محتوای تولید شده توسط هوش مصنوعی توسعه یافته است، زیرا رقبایی مانند GPTZero وجود دارند و علیرغم تصمیم OpenAI به فعالیت خود ادامه خواهند داد.
تلاش های قبلی برای شناسایی دست خط با هوش مصنوعی به طرز شگفت انگیزی نتیجه معکوس داشت. به عنوان مثال، در ماه مه 2023، یک استاد به اشتباه تمام کلاس خود را پس از روشن کردن ChatGPT برای تشخیص سرقت ادبی در مقالات دانشجویان خود، شکست داد. نیازی به گفتن نیست که ChatGPT اشتباه کرده و استاد هم همینطور.
زمانی که حتی OpenAI اعتراف می کند که نمی تواند سرقت ادبی ایجاد شده توسط ربات چت خود را به درستی درک کند، باعث نگرانی است. این در زمان نگرانی فزاینده در مورد پتانسیل مخرب چت ربات های هوش مصنوعی و خواستار توقف موقت توسعه در این زمینه است. اگر هوش مصنوعی به اندازهای که برخی افراد پیشبینی میکنند تأثیر داشته باشد، جهان به ابزارهای قویتری نسبت به طبقهبندیکننده هوش مصنوعی ناموفق OpenAI نیاز خواهد داشت.
توصیه های سردبیران