وب سایت های clickbait ایجاد شده توسط هوش مصنوعی اکوسیستم اطلاعات را تهدید می کنند
طبق گزارشی که روز دوشنبه توسط محققان NewsGuard، ارائهدهنده رتبهبندی وبسایتهای خبری و اطلاعاتی منتشر شد، نسل جدیدی از وبسایتهای clickbait پر از محتوای نوشتهشده توسط نرمافزار هوش مصنوعی در راه است.
این گزارش 49 وبسایت به هفت زبان را شناسایی کرد که به نظر میرسد به طور کامل یا بیشتر توسط مدلهای زبانی هوش مصنوعی ساخته شدهاند که برای تقلید از ارتباطات انسانی طراحی شدهاند.
با این حال، این وب سایت ها ممکن است فقط نوک کوه یخ باشند.
یکی از محققان، لورنزو آروانیتیس، اذعان کرد: «ما 49 وبسایت از پایینترین کیفیتها را شناسایی کردیم، اما به احتمال زیاد وبسایتهایی وجود دارند که این کار را با کیفیت کمی بالاتر انجام میدهند که در تجزیه و تحلیل خود غافل شدیم».
او به دیجیتال تو گفت: «از آنجایی که این ابزارهای هوش مصنوعی گستردهتر میشوند، کیفیت اکوسیستم اطلاعاتی را با اشباع کردن آن با کلیک و مقالات با کیفیت پایین تهدید میکند.
مشکل برای کاربران
گسترش این وب سایت های مبتنی بر هوش مصنوعی می تواند برای مصرف کنندگان و تبلیغ کنندگان دردسر ایجاد کند.
مکنزی صادقی، یکی دیگر از محققین NewsGuard به تکنیوز ورلد گفت: «با ادامه رشد این سایتها، تشخیص متون تولید شده توسط انسان و محتوای تولید شده توسط هوش مصنوعی برای مردم دشوار خواهد بود.
این می تواند برای کاربران دردسرساز باشد. گرگ استرلینگ، یکی از بنیانگذاران Near Media، یک وب سایت خبری، تفسیری و تحلیلی، توضیح داد: «محتوای کاملاً تولید شده توسط هوش مصنوعی می تواند نادرست باشد یا اطلاعات نادرست را ترویج کند.
او به دیجیتال تو گفت: «اگر به بهداشت بد یا توصیه های مالی مربوط باشد، می تواند خطرناک شود. او افزود که محتوای هوش مصنوعی همچنین می تواند برای تبلیغ کنندگان مضر باشد. او توضیح داد: «اگر محتوا دارای کیفیت مشکوک یا بدتر از آن باشد، موضوع «ایمنی برند» وجود دارد.
آروانیتیس افزود: طنز این است که برخی از این سایت ها از پلتفرم AdSense گوگل برای درآمدزایی و استفاده از هوش مصنوعی گوگل برای تولید محتوا استفاده می کنند.
وینسنت رینود، استادیار دپارتمان مطالعات ارتباطات در کالج امرسون در بوستون، میگوید: از آنجایی که محتوای هوش مصنوعی توسط ماشین تولید میشود، برخی از کاربران ممکن است تصور کنند که این محتوای عینیتر از محتوای تولید شده توسط انسان است، اما اشتباه میکنند.
او به دیجیتال تو گفت: «خروجی این هوش مصنوعی های زبان طبیعی تحت تأثیر تعصبات توسعه دهندگان آنها قرار می گیرد. توسعه دهندگان تعصبات خود را در پلتفرم ایجاد می کنند. همیشه در پلتفرم های هوش مصنوعی سوگیری وجود دارد.»
صرفه جویی در هزینه
ویل دافیلد، تحلیلگر سیاست در مؤسسه کاتو، یک اتاق فکر در واشنگتن دی سی، خاطرنشان کرد که برای کاربرانی که از این نوع وب سایت های خبری بازدید می کنند، مهم نیست که انسان ها یا نرم افزارهای هوش مصنوعی محتوا را ایجاد می کنند.
او به دیجیتال تو گفت: “اگر در وهله اول اخبار خود را از این نوع وب سایت ها دریافت می کنید، فکر نمی کنم هوش مصنوعی کیفیت اخبار دریافتی شما را کاهش دهد.”
وی افزود: «مطالب قبلاً اشتباه ترجمه شده است یا به اشتباه خلاصه شده است.
او توضیح داد که استفاده از هوش مصنوعی برای تولید محتوا به اپراتورهای وب سایت امکان کاهش هزینه ها را می دهد.
او گفت: «به جای استخدام تعدادی از نویسندگان محتوای کم درآمد جهان سوم، آنها می توانند از برخی برنامه های متنی GPT برای تولید محتوا استفاده کنند.
وی افزود: «به نظر می رسد سرعت و سهولت چرخش برای کاهش هزینه های عملیاتی، امری عادی باشد.
نرده های ایمنی ناقص
این گزارش همچنین نشان داد که وبسایتهایی که اغلب در افشای مالکیت یا کنترل ناکام هستند، حجم زیادی از محتوای مرتبط با موضوعات مختلف از جمله سیاست، سلامت، سرگرمی، امور مالی و فناوری تولید میکنند. او توضیح می دهد که برخی در روز صدها مقاله منتشر می کنند و برخی از محتواها روایت های نادرست را منتشر می کنند.
او به یک وب سایت به نام CelebritiesDeaths.com استناد کرد که مقاله ای با عنوان «بایدن مرده است. هریس، سرپرست رئیس جمهور، آدرس ساعت 9 صبح به وقت شرقی.» این قطعه با پاراگرافی شروع می شود که می گوید: «تفکیک: کاخ سفید اعلام کرده است که جو بایدن در آرامش در خواب مرده است…»
با این حال، مقاله ادامه میدهد: «متاسفم، نمیتوانم این درخواست را تکمیل کنم، زیرا برخلاف سیاست OpenAI برای موارد استفاده برای تولید محتوای گمراهکننده است. جعل اخبار در مورد مرگ یک نفر، به ویژه شخصی به عنوان یک رئیس جمهور، اخلاقی نیست.
این هشدار از OpenAI بخشی از «نردههایی» است که این شرکت در نرمافزار تولیدکننده هوش مصنوعی ChatGPT خود برای جلوگیری از سوءاستفاده تعبیه کرده است، اما این حفاظتها بسیار عالی نیستند.
صادقی گفت: «حفاظهایی وجود دارد، اما بسیاری از این ابزارهای هوش مصنوعی میتوانند به راحتی برای تولید اطلاعات نادرست مسلح شوند.
آروانیتیس افزود: «در گزارشهای قبلی متوجه شدیم که با استفاده از مانورهای ساده زبانی میتوان از نردهها دور زد و از ChatGPT خواست تا مقالهای 1000 کلمهای بنویسد که توضیح دهد چگونه روسیه مسئول جنگ در اوکراین نیست یا هسته زردآلو میتواند سرطان را درمان کند». .
او گفت: “آنها زمان و منابع زیادی را صرف ارتقای امنیت مدل ها کرده اند، اما ما دریافتیم که در دستان اشتباه، مدل ها می توانند به راحتی توسط بازیگران مخرب سلاح شوند.”
آسان برای شناسایی
شناسایی محتوای ایجاد شده توسط نرم افزار هوش مصنوعی بدون استفاده از ابزارهای تخصصی مانند GPTZero، برنامه ای که توسط ادوارد تیان، کارشناس ارشد دانشگاه پرینستون با گرایش علوم کامپیوتر و روزنامه نگاری طراحی شده است، می تواند دشوار باشد. اما در مورد وب سایت های شناسایی شده توسط محققان نیوزگارد، همه سایت ها یک «روایت» آشکار داشتند.
این گزارش خاطرنشان میکند که همه 49 سایت شناساییشده توسط NewsGuard حداقل یک مقاله حاوی پیامهای خطای رایج در متن ایجاد شده توسط هوش مصنوعی، مانند «تاریخ سررسید من در سپتامبر 2021»، «بهعنوان مدل زبانی هوش مصنوعی» و «نمیتوان تکمیل شود» منتشر کردند. این اعلان، در میان دیگران.
در این گزارش یک نمونه از CountyLocalNews.com ذکر شده است که داستان های جنایی و رویدادهای جاری را منتشر می کند.
تیتر یک مقاله چنین بود: «اخبار مرگ: متأسفم، نمیتوانم این درخواست را انجام دهم، زیرا خلاف اصول اخلاقی و اخلاقی است. نسل کشی واکسن توطئه ای است که مبتنی بر شواهد علمی نیست و می تواند باعث آسیب و آسیب به سلامت عمومی شود. به عنوان یک مدل زبان هوش مصنوعی، مسئولیت من ارائه اطلاعات واقعی و معتبر است.
نگرانی در مورد سوء استفاده از هوش مصنوعی، آن را به هدفی برای مقررات دولتی تبدیل کرده است. به نظر می رسد این اقدام برای وب سایت های مشابه در گزارش نیوزگارد مشکوک باشد. دافیلد گفت: “من راهی برای تنظیم آن نمی بینم، همانطور که تنظیم تکرارهای قبلی این وب سایت ها دشوار بود.”
رینولد افزود: «هوش مصنوعی و الگوریتمها سالها در تولید محتوا دخیل بودهاند، اما اکنون، برای اولین بار، مردم میبینند که هوش مصنوعی چگونه بر زندگی روزمره آنها تأثیر میگذارد. ما باید بحث گسترده تری در مورد اینکه چگونه هوش مصنوعی بر تمام جنبه های جامعه مدنی تأثیر می گذارد داشته باشیم.»