مطالعه نشان می دهد برنامه های تشخیص هوش مصنوعی علیه غیر انگلیسی زبانان تبعیض قائل می شوند
در گذشته مواردی وجود داشته است که افراد در جامعه مورد تبعیض قرار گرفته اند، اما یک مطالعه جدید نشان داده است که ممکن است تنها ما نباشیم. محبوبیت هوش مصنوعی مولد، به ویژه از زمان راه اندازی ChatGPT، افزایش یافته است و اقداماتی برای کاهش سوء استفاده از آن، مانند تقلب در امتحان، نیز در قالب برنامه های تشخیص هوش مصنوعی ایجاد شده است. این برنامهها میتوانند محتوا را بررسی کنند و نشان دهند که توسط یک انسان نوشته شده است یا یک برنامه هوش مصنوعی. با این حال، این برنامه ها اکنون متهم به تبعیض تکان دهنده علیه غیر انگلیسی زبانان هستند.
بله، هوش مصنوعی Generative قبلا به نمایش سوگیری متهم شده بود، و اکنون یک مطالعه جدید نشان داده است که برنامههای تشخیص آن نیز قادر به تبعیض هستند.
تبعیض توسط برنامه های تشخیص هوش مصنوعی
طبق مطالعهای که توسط جیمز زو، استادیار علوم دادههای زیست پزشکی در دانشگاه استنفورد انجام شد، برنامههای رایانهای که برای تشخیص دخالت هوش مصنوعی در اسناد، امتحانات و درخواستهای شغلی استفاده میشوند، میتوانند علیه غیر انگلیسی زبانان تبعیض قائل شوند. این مطالعه که در Cell Press منتشر شد، با غربالگری 91 مقاله به زبان انگلیسی نوشته شده توسط انگلیسی زبانان غیر بومی با استفاده از 7 برنامه مختلف که برای تشخیص GPT استفاده می شوند، انجام شد و نتیجه گیری ممکن است شما را شوکه کند.
61.3 درصد از مقالاتی که در ابتدا برای آزمون تافل نوشته شده بودند، به عنوان تولید شده توسط هوش مصنوعی علامت گذاری شدند. به طور تکان دهنده، یک برنامه حتی 98 درصد از مقالات را به عنوان ایجاد شده توسط یک برنامه هوش مصنوعی علامت گذاری کرد.
از سوی دیگر، انشاهای نوشته شده توسط دانش آموزان کلاس هشتم که بومی انگلیسی زبان هستند نیز به این برنامه ارسال شد و نزدیک به 90 درصد آنها به عنوان ساخته دست بشر بازگشته اند.
این برنامه ها چگونه کار می کنند؟
برای تشخیص دخالت هوش مصنوعی، این برنامهها آشفتگی متن را بررسی میکنند، که معیاری آماری از میزان خوبی است که یک مدل هوش مصنوعی مولد متن را پیشبینی میکند. اگر LLM بتواند به راحتی کلمه بعدی را در یک جمله پیش بینی کند، سردرگمی کم در نظر گرفته می شود. برنامه هایی مانند ChatGPT محتوا را با کمی سردرگمی تولید می کنند، به این معنی که از کلمات ساده تری استفاده می کنند. از آنجایی که غیر انگلیسی زبانها نیز تمایل دارند از کلمات سادهتری استفاده کنند، محتوای نوشتاری آنها مستعد برچسبگذاری نادرست بهعنوان تولیدشده توسط هوش مصنوعی است.
محققان گفتند: «بنابراین، پزشکان باید در هنگام استفاده از درجه پایین سردرگمی به عنوان شاخصی از متن تولید شده توسط هوش مصنوعی محتاط باشند، زیرا چنین رویکردی ممکن است به طور ناخواسته تعصبات سیستمی را علیه نویسندگان غیر بومی در جامعه دانشگاهی تشدید کند.