تکنولوژی

وب سایت های clickbait ایجاد شده توسط هوش مصنوعی اکوسیستم اطلاعات را تهدید می کنند

طبق گزارشی که روز دوشنبه توسط محققان NewsGuard، ارائه‌دهنده رتبه‌بندی وب‌سایت‌های خبری و اطلاعاتی منتشر شد، نسل جدیدی از وب‌سایت‌های clickbait پر از محتوای نوشته‌شده توسط نرم‌افزار هوش مصنوعی در راه است.

این گزارش 49 وب‌سایت به هفت زبان را شناسایی کرد که به نظر می‌رسد به طور کامل یا بیشتر توسط مدل‌های زبانی هوش مصنوعی ساخته شده‌اند که برای تقلید از ارتباطات انسانی طراحی شده‌اند.

با این حال، این وب سایت ها ممکن است فقط نوک کوه یخ باشند.

یکی از محققان، لورنزو آروانیتیس، اذعان کرد: «ما 49 وب‌سایت از پایین‌ترین کیفیت‌ها را شناسایی کردیم، اما به احتمال زیاد وب‌سایت‌هایی وجود دارند که این کار را با کیفیت کمی بالاتر انجام می‌دهند که در تجزیه و تحلیل خود غافل شدیم».

او به دیجیتال تو گفت: «از آنجایی که این ابزارهای هوش مصنوعی گسترده‌تر می‌شوند، کیفیت اکوسیستم اطلاعاتی را با اشباع کردن آن با کلیک و مقالات با کیفیت پایین تهدید می‌کند.

مشکل برای کاربران

گسترش این وب سایت های مبتنی بر هوش مصنوعی می تواند برای مصرف کنندگان و تبلیغ کنندگان دردسر ایجاد کند.

مکنزی صادقی، یکی دیگر از محققین NewsGuard به تکنیوز ورلد گفت: «با ادامه رشد این سایت‌ها، تشخیص متون تولید شده توسط انسان و محتوای تولید شده توسط هوش مصنوعی برای مردم دشوار خواهد بود.

این می تواند برای کاربران دردسرساز باشد. گرگ استرلینگ، یکی از بنیانگذاران Near Media، یک وب سایت خبری، تفسیری و تحلیلی، توضیح داد: «محتوای کاملاً تولید شده توسط هوش مصنوعی می تواند نادرست باشد یا اطلاعات نادرست را ترویج کند.

او به دیجیتال تو گفت: «اگر به بهداشت بد یا توصیه های مالی مربوط باشد، می تواند خطرناک شود. او افزود که محتوای هوش مصنوعی همچنین می تواند برای تبلیغ کنندگان مضر باشد. او توضیح داد: «اگر محتوا دارای کیفیت مشکوک یا بدتر از آن باشد، موضوع «ایمنی برند» وجود دارد.

مطلب پیشنهادی:  واتس اپ با هدف شکستن موانع، امکان ارسال پیام های بین برنامه ای با سیگنال و تلگرام را فراهم می کند

آروانیتیس افزود: طنز این است که برخی از این سایت ها از پلتفرم AdSense گوگل برای درآمدزایی و استفاده از هوش مصنوعی گوگل برای تولید محتوا استفاده می کنند.

وینسنت رینود، استادیار دپارتمان مطالعات ارتباطات در کالج امرسون در بوستون، می‌گوید: از آنجایی که محتوای هوش مصنوعی توسط ماشین تولید می‌شود، برخی از کاربران ممکن است تصور کنند که این محتوای عینی‌تر از محتوای تولید شده توسط انسان است، اما اشتباه می‌کنند.


او به دیجیتال تو گفت: «خروجی این هوش مصنوعی های زبان طبیعی تحت تأثیر تعصبات توسعه دهندگان آنها قرار می گیرد. توسعه دهندگان تعصبات خود را در پلتفرم ایجاد می کنند. همیشه در پلتفرم های هوش مصنوعی سوگیری وجود دارد.»

صرفه جویی در هزینه

ویل دافیلد، تحلیلگر سیاست در مؤسسه کاتو، یک اتاق فکر در واشنگتن دی سی، خاطرنشان کرد که برای کاربرانی که از این نوع وب سایت های خبری بازدید می کنند، مهم نیست که انسان ها یا نرم افزارهای هوش مصنوعی محتوا را ایجاد می کنند.

او به دیجیتال تو گفت: “اگر در وهله اول اخبار خود را از این نوع وب سایت ها دریافت می کنید، فکر نمی کنم هوش مصنوعی کیفیت اخبار دریافتی شما را کاهش دهد.”

وی افزود: «مطالب قبلاً اشتباه ترجمه شده است یا به اشتباه خلاصه شده است.

او توضیح داد که استفاده از هوش مصنوعی برای تولید محتوا به اپراتورهای وب سایت امکان کاهش هزینه ها را می دهد.

او گفت: «به جای استخدام تعدادی از نویسندگان محتوای کم درآمد جهان سوم، آنها می توانند از برخی برنامه های متنی GPT برای تولید محتوا استفاده کنند.

وی افزود: «به نظر می رسد سرعت و سهولت چرخش برای کاهش هزینه های عملیاتی، امری عادی باشد.

مطلب پیشنهادی:  انفجار لکه خورشیدی، شراره های خورشیدی کلاس M را به آتش می کشد! باعث خاموشی رادیو در ایالات متحده می شود

نرده های ایمنی ناقص

این گزارش همچنین نشان داد که وب‌سایت‌هایی که اغلب در افشای مالکیت یا کنترل ناکام هستند، حجم زیادی از محتوای مرتبط با موضوعات مختلف از جمله سیاست، سلامت، سرگرمی، امور مالی و فناوری تولید می‌کنند. او توضیح می دهد که برخی در روز صدها مقاله منتشر می کنند و برخی از محتواها روایت های نادرست را منتشر می کنند.

او به یک وب سایت به نام CelebritiesDeaths.com استناد کرد که مقاله ای با عنوان «بایدن مرده است. هریس، سرپرست رئیس جمهور، آدرس ساعت 9 صبح به وقت شرقی.» این قطعه با پاراگرافی شروع می شود که می گوید: «تفکیک: کاخ سفید اعلام کرده است که جو بایدن در آرامش در خواب مرده است…»

با این حال، مقاله ادامه می‌دهد: «متاسفم، نمی‌توانم این درخواست را تکمیل کنم، زیرا برخلاف سیاست OpenAI برای موارد استفاده برای تولید محتوای گمراه‌کننده است. جعل اخبار در مورد مرگ یک نفر، به ویژه شخصی به عنوان یک رئیس جمهور، اخلاقی نیست.


این هشدار از OpenAI بخشی از «نرده‌هایی» است که این شرکت در نرم‌افزار تولیدکننده هوش مصنوعی ChatGPT خود برای جلوگیری از سوءاستفاده تعبیه کرده است، اما این حفاظت‌ها بسیار عالی نیستند.

صادقی گفت: «حفاظ‌هایی وجود دارد، اما بسیاری از این ابزارهای هوش مصنوعی می‌توانند به راحتی برای تولید اطلاعات نادرست مسلح شوند.

آروانیتیس افزود: «در گزارش‌های قبلی متوجه شدیم که با استفاده از مانورهای ساده زبانی می‌توان از نرده‌ها دور زد و از ChatGPT خواست تا مقاله‌ای 1000 کلمه‌ای بنویسد که توضیح دهد چگونه روسیه مسئول جنگ در اوکراین نیست یا هسته زردآلو می‌تواند سرطان را درمان کند». .

او گفت: “آنها زمان و منابع زیادی را صرف ارتقای امنیت مدل ها کرده اند، اما ما دریافتیم که در دستان اشتباه، مدل ها می توانند به راحتی توسط بازیگران مخرب سلاح شوند.”

مطلب پیشنهادی:  سام آلتمن، مدیر عامل OpenAI به دنبال جمع آوری میلیاردها دلار برای شبکه ای از کارخانه های تولید تراشه های هوش مصنوعی است

آسان برای شناسایی

شناسایی محتوای ایجاد شده توسط نرم افزار هوش مصنوعی بدون استفاده از ابزارهای تخصصی مانند GPTZero، برنامه ای که توسط ادوارد تیان، کارشناس ارشد دانشگاه پرینستون با گرایش علوم کامپیوتر و روزنامه نگاری طراحی شده است، می تواند دشوار باشد. اما در مورد وب سایت های شناسایی شده توسط محققان نیوزگارد، همه سایت ها یک «روایت» آشکار داشتند.

این گزارش خاطرنشان می‌کند که همه 49 سایت شناسایی‌شده توسط NewsGuard حداقل یک مقاله حاوی پیام‌های خطای رایج در متن ایجاد شده توسط هوش مصنوعی، مانند «تاریخ سررسید من در سپتامبر 2021»، «به‌عنوان مدل زبانی هوش مصنوعی» و «نمی‌توان تکمیل شود» منتشر کردند. این اعلان، در میان دیگران.

در این گزارش یک نمونه از CountyLocalNews.com ذکر شده است که داستان های جنایی و رویدادهای جاری را منتشر می کند.

تیتر یک مقاله چنین بود: «اخبار مرگ: متأسفم، نمی‌توانم این درخواست را انجام دهم، زیرا خلاف اصول اخلاقی و اخلاقی است. نسل کشی واکسن توطئه ای است که مبتنی بر شواهد علمی نیست و می تواند باعث آسیب و آسیب به سلامت عمومی شود. به عنوان یک مدل زبان هوش مصنوعی، مسئولیت من ارائه اطلاعات واقعی و معتبر است.

نگرانی در مورد سوء استفاده از هوش مصنوعی، آن را به هدفی برای مقررات دولتی تبدیل کرده است. به نظر می رسد این اقدام برای وب سایت های مشابه در گزارش نیوزگارد مشکوک باشد. دافیلد گفت: “من راهی برای تنظیم آن نمی بینم، همانطور که تنظیم تکرارهای قبلی این وب سایت ها دشوار بود.”

رینولد افزود: «هوش مصنوعی و الگوریتم‌ها سال‌ها در تولید محتوا دخیل بوده‌اند، اما اکنون، برای اولین بار، مردم می‌بینند که هوش مصنوعی چگونه بر زندگی روزمره آنها تأثیر می‌گذارد. ما باید بحث گسترده تری در مورد اینکه چگونه هوش مصنوعی بر تمام جنبه های جامعه مدنی تأثیر می گذارد داشته باشیم.»

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا