تکنولوژی

چشم برای دیدن دست برای لمس؟ نبرد جهانی برای مقابله با دیپ فیک

چت‌بات‌هایی که دروغ می‌فرستند، اپلیکیشن‌های تعویض چهره، ویدیوهای پورن ایجاد می‌کنند و صداهای شبیه‌سازی‌شده که میلیون‌ها شرکت را کلاه‌برداری می‌کنند – نبرد برای مهار جعلی‌های عمیق هوش مصنوعی که به یک ابر انتشار دهنده اطلاعات نادرست تبدیل شده‌اند، ادامه دارد.

هوش مصنوعی ضرب المثل «دیدن یعنی باور کردن» را با سیل تصاویری که از هوای رقیق ایجاد شده بود، دوباره تعریف کرد و مردم چیزهایی را به زبان می‌آورند که هرگز در پیام‌های جعلی عمیق واقعی که اعتماد آنلاین را تضعیف می‌کرد، به زبان می‌آوردند.

“AHA. (قطعاً) نه من،» میلیاردر ایلان ماسک سال گذشته در یک نمونه بارز از یک ویدیوی کاملا جعلی که او را در حال تبلیغ یک کلاهبرداری با ارزهای دیجیتال نشان می داد، توییت کرد.

چین اخیراً قوانین گسترده‌ای را برای تنظیم جعل جعل عمیق تصویب کرده است، اما به نظر می‌رسد که اکثر کشورها با این نگرانی که مقررات می‌تواند نوآوری را خفه کند یا برای محدود کردن آزادی بیان مورد سوء استفاده قرار گیرد، در تلاش هستند تا با فناوری رو به رشد سریع همراهی کنند.

کارشناسان هشدار می‌دهند که آشکارسازهای تقلبی عمیق به شدت از سازندگانی پیشی گرفته‌اند که به سختی می‌توان آن‌ها را گرفت، زیرا به‌طور ناشناس با استفاده از نرم‌افزار مبتنی بر هوش مصنوعی که زمانی به عنوان یک مهارت تخصصی تبلیغ می‌شد، کار می‌کنند، اما اکنون با هزینه کم در دسترس هستند.

متا، مالک فیس بوک سال گذشته مدعی شد که ویدیوی جعلی ولودیمیر زلنسکی، رئیس جمهور اوکراین را که از شهروندان خواسته بود سلاح های خود را زمین بگذارند و تسلیم روسیه شوند را حذف کرده است.

مطلب پیشنهادی:  گوگل دو مدل جدید هوش مصنوعی توسط LLM Gemma به خانواده خود اضافه می کند - چرا مهم است

و کیت آیزاکس، فعال بریتانیایی، 30 ساله، گفت که وقتی صورتش در یک ویدیوی پورنو عمیقا جعلی ظاهر شد که پس از انتشار یک کاربر ناشناس در توییتر، رگباری از سوء استفاده آنلاین را به راه انداخت، گفت: «قلبش غرق شد».

آیزاکس که علیه هرزه‌نگاری غیراجماعی مبارزه می‌کند، در ماه اکتبر به نقل از بی‌بی‌سی گفت: «به یاد دارم که احساس می‌کردم این ویدیو قرار است همه جا پخش شود – وحشتناک بود.

در ماه بعد، دولت بریتانیا نسبت به دیپ فیک ها ابراز نگرانی کرد و نسبت به یک وب سایت محبوب که “عملاً زنان را برهنه می کند” هشدار داد.

“آخرالزمان اطلاعاتی”

بدون هیچ مانعی برای ایجاد متن، صوت و ویدئو با هوش مصنوعی، احتمال سوء استفاده در سرقت هویت، کلاهبرداری مالی و تخریب شهرت، زنگ خطر جهانی را برانگیخته است.

گروه اوراسیا ابزارهای هوش مصنوعی را «سلاح های کشتار جمعی» نامید.

این گروه در گزارشی هشدار داد: «پیشرفت‌های فناوری در هوش مصنوعی اعتماد اجتماعی را از بین می‌برد، عوام فریب‌ها و اقتدارگرایان را قدرتمند می‌کند و کسب‌وکارها و بازارها را مختل می‌کند».

“پیشرفت در نرم افزارهای جعل عمیق، تشخیص چهره و سنتز گفتار، کنترل روی شباهت فرد را به یادگاری از گذشته تبدیل می کند.”

این هفته، ElevenLabs استارت‌آپ هوش مصنوعی اعتراف کرد که ابزار شبیه‌سازی صدا می‌تواند برای اهداف مخرب مورد سوء استفاده قرار گیرد، زیرا کاربران فایل‌های صوتی عمیقا جعلی را منتشر کردند که ادعا می‌کرد بازیگری است که اما واتسون در حال خواندن زندگی‌نامه آدولف هیتلر «Mein Kampf» است.

مطلب پیشنهادی:  5 ابزار برتر بازنویسی آنلاین مبتنی بر هوش مصنوعی: از QuillBot تا Google Bard، همه آنها را بشناسید

حجم فزاینده دیپ فیک ها می تواند منجر به چیزی شود که آژانس مجری قانون اروپایی یوروپل آن را “آخرالزمان اطلاعاتی” توصیف کرده است، سناریویی که در آن بسیاری از مردم قادر به تشخیص واقعیت از داستان نیستند.

در گزارش یوروپل آمده است: «کارشناسان بیم دارند که این امر می‌تواند منجر به وضعیتی شود که شهروندان دیگر واقعیت مشترکی نداشته باشند یا باعث سردرگمی عمومی در مورد اینکه کدام منابع اطلاعاتی قابل اعتماد هستند، شود.

این موضوع در آخر هفته گذشته زمانی که دامار هملین بازیکن NFL برای اولین بار پس از ایست قلبی در طول یک بازی با طرفداران خود از طریق ویدیو صحبت کرد، نشان داده شد.

هاملین از متخصصان پزشکی مسئول بهبودی او تشکر کرد، اما بسیاری از کسانی که به تئوری‌های توطئه مبنی بر اینکه واکسن کووید-19 در پس فروپاشی او در میدان بود، باور داشتند، به اشتباه ویدیوی او را جعلی نامیدند.

“Super Spreader”

چین ماه گذشته قوانین جدیدی را وضع کرد که شرکت‌هایی را که خدمات جعلی عمیق ارائه می‌کنند ملزم می‌کند تا هویت واقعی کاربران خود را به دست آورند. آنها همچنین نیاز دارند که محتوای عمیقا جعلی به طور مناسب علامت گذاری شود تا از “همه سردرگمی” جلوگیری شود.

این قوانین پس از هشدار دولت چین مبنی بر اینکه دیپ فیک ها “خطری برای امنیت ملی و ثبات اجتماعی” هستند، وضع می شوند.

در ایالات متحده، جایی که قانونگذاران بر تشکیل یک کارگروه برای نظارت بر جعل عمیق فشار آورده اند، فعالان حقوق دیجیتال نسبت به اعمال بیش از حد قانونی که می تواند نوآوری را از بین ببرد یا محتوای قانونی را هدف قرار دهد، هشدار داده اند.

مطلب پیشنهادی:  AWS آمازون 9 میلیارد دلار دیگر در سنگاپور سرمایه گذاری می کند

در همین حال، اتحادیه اروپا درگیر بحث های داغ در مورد قانون پیشنهادی هوش مصنوعی است.

قانونی که اتحادیه اروپا در حال رقابت برای تصویب آن در سال جاری است، کاربران را ملزم به افشای دیپ‌فیک می‌کند، اما بسیاری نگرانند که این قانون در صورتی که محتوای خلاقانه یا طنز را پوشش ندهد، بی‌عقول باشد.

چگونه اعتماد دیجیتال را با شفافیت بازیابی کنیم؟ جیسون دیویس، استاد محقق در دانشگاه سیراکیوز به خبرگزاری فرانسه گفت: این سوال واقعی در حال حاضر است.

«ابزارهای (تشخیص) در حال آمدن هستند، و نسبتاً سریع می آیند. اما فناوری شاید حتی سریعتر در حال حرکت است. بنابراین، مانند امنیت سایبری، ما هرگز این مشکل را حل نخواهیم کرد، فقط امیدواریم که ادامه دهیم.

بسیاری در حال حاضر برای درک پیشرفت هایی مانند ChatGPT، یک ربات چت ایجاد شده توسط OpenAI مستقر در ایالات متحده که قادر به تولید متن های متقاعدکننده تقریباً در مورد هر موضوعی است، تلاش می کنند.

در مطالعه‌ای، NewsGuard، ناظر رسانه‌ها، که آن را «ابرق توزیع‌کننده اطلاعات نادرست بعدی» نامید، گفت که بیشتر پاسخ‌های ربات چت به درخواست‌های مرتبط با موضوعاتی مانند کووید-19 و تیراندازی‌های مدرسه «فصیح، نادرست و گمراه‌کننده» بود.

NewsGuard گفت: «نتایج نگرانی‌ها را تأیید می‌کند… در مورد اینکه چگونه می‌توان این ابزار را در دستان اشتباه به سلاح تبدیل کرد.


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا