تکنولوژی

مطالعه نشان می دهد برنامه های تشخیص هوش مصنوعی علیه غیر انگلیسی زبانان تبعیض قائل می شوند

در گذشته مواردی وجود داشته است که افراد در جامعه مورد تبعیض قرار گرفته اند، اما یک مطالعه جدید نشان داده است که ممکن است تنها ما نباشیم. محبوبیت هوش مصنوعی مولد، به ویژه از زمان راه اندازی ChatGPT، افزایش یافته است و اقداماتی برای کاهش سوء استفاده از آن، مانند تقلب در امتحان، نیز در قالب برنامه های تشخیص هوش مصنوعی ایجاد شده است. این برنامه‌ها می‌توانند محتوا را بررسی کنند و نشان دهند که توسط یک انسان نوشته شده است یا یک برنامه هوش مصنوعی. با این حال، این برنامه ها اکنون متهم به تبعیض تکان دهنده علیه غیر انگلیسی زبانان هستند.

بله، هوش مصنوعی Generative قبلا به نمایش سوگیری متهم شده بود، و اکنون یک مطالعه جدید نشان داده است که برنامه‌های تشخیص آن نیز قادر به تبعیض هستند.

تبعیض توسط برنامه های تشخیص هوش مصنوعی

طبق مطالعه‌ای که توسط جیمز زو، استادیار علوم داده‌های زیست پزشکی در دانشگاه استنفورد انجام شد، برنامه‌های رایانه‌ای که برای تشخیص دخالت هوش مصنوعی در اسناد، امتحانات و درخواست‌های شغلی استفاده می‌شوند، می‌توانند علیه غیر انگلیسی زبانان تبعیض قائل شوند. این مطالعه که در Cell Press منتشر شد، با غربالگری 91 مقاله به زبان انگلیسی نوشته شده توسط انگلیسی زبانان غیر بومی با استفاده از 7 برنامه مختلف که برای تشخیص GPT استفاده می شوند، انجام شد و نتیجه گیری ممکن است شما را شوکه کند.

61.3 درصد از مقالاتی که در ابتدا برای آزمون تافل نوشته شده بودند، به عنوان تولید شده توسط هوش مصنوعی علامت گذاری شدند. به طور تکان دهنده، یک برنامه حتی 98 درصد از مقالات را به عنوان ایجاد شده توسط یک برنامه هوش مصنوعی علامت گذاری کرد.

مطلب پیشنهادی:  کوالکام پس از اینکه پیش‌بینی نشان داد که کاهش تلفن‌ها ادامه خواهد داشت، وارد بازار می‌شود

از سوی دیگر، انشاهای نوشته شده توسط دانش آموزان کلاس هشتم که بومی انگلیسی زبان هستند نیز به این برنامه ارسال شد و نزدیک به 90 درصد آنها به عنوان ساخته دست بشر بازگشته اند.

این برنامه ها چگونه کار می کنند؟

برای تشخیص دخالت هوش مصنوعی، این برنامه‌ها آشفتگی متن را بررسی می‌کنند، که معیاری آماری از میزان خوبی است که یک مدل هوش مصنوعی مولد متن را پیش‌بینی می‌کند. اگر LLM بتواند به راحتی کلمه بعدی را در یک جمله پیش بینی کند، سردرگمی کم در نظر گرفته می شود. برنامه هایی مانند ChatGPT محتوا را با کمی سردرگمی تولید می کنند، به این معنی که از کلمات ساده تری استفاده می کنند. از آنجایی که غیر انگلیسی زبان‌ها نیز تمایل دارند از کلمات ساده‌تری استفاده کنند، محتوای نوشتاری آن‌ها مستعد برچسب‌گذاری نادرست به‌عنوان تولیدشده توسط هوش مصنوعی است.

محققان گفتند: «بنابراین، پزشکان باید در هنگام استفاده از درجه پایین سردرگمی به عنوان شاخصی از متن تولید شده توسط هوش مصنوعی محتاط باشند، زیرا چنین رویکردی ممکن است به طور ناخواسته تعصبات سیستمی را علیه نویسندگان غیر بومی در جامعه دانشگاهی تشدید کند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا