چشم برای دیدن دست برای لمس؟ نبرد جهانی برای مقابله با دیپ فیک
چتباتهایی که دروغ میفرستند، اپلیکیشنهای تعویض چهره، ویدیوهای پورن ایجاد میکنند و صداهای شبیهسازیشده که میلیونها شرکت را کلاهبرداری میکنند – نبرد برای مهار جعلیهای عمیق هوش مصنوعی که به یک ابر انتشار دهنده اطلاعات نادرست تبدیل شدهاند، ادامه دارد.
هوش مصنوعی ضرب المثل «دیدن یعنی باور کردن» را با سیل تصاویری که از هوای رقیق ایجاد شده بود، دوباره تعریف کرد و مردم چیزهایی را به زبان میآورند که هرگز در پیامهای جعلی عمیق واقعی که اعتماد آنلاین را تضعیف میکرد، به زبان میآوردند.
“AHA. (قطعاً) نه من،» میلیاردر ایلان ماسک سال گذشته در یک نمونه بارز از یک ویدیوی کاملا جعلی که او را در حال تبلیغ یک کلاهبرداری با ارزهای دیجیتال نشان می داد، توییت کرد.
چین اخیراً قوانین گستردهای را برای تنظیم جعل جعل عمیق تصویب کرده است، اما به نظر میرسد که اکثر کشورها با این نگرانی که مقررات میتواند نوآوری را خفه کند یا برای محدود کردن آزادی بیان مورد سوء استفاده قرار گیرد، در تلاش هستند تا با فناوری رو به رشد سریع همراهی کنند.
کارشناسان هشدار میدهند که آشکارسازهای تقلبی عمیق به شدت از سازندگانی پیشی گرفتهاند که به سختی میتوان آنها را گرفت، زیرا بهطور ناشناس با استفاده از نرمافزار مبتنی بر هوش مصنوعی که زمانی به عنوان یک مهارت تخصصی تبلیغ میشد، کار میکنند، اما اکنون با هزینه کم در دسترس هستند.
متا، مالک فیس بوک سال گذشته مدعی شد که ویدیوی جعلی ولودیمیر زلنسکی، رئیس جمهور اوکراین را که از شهروندان خواسته بود سلاح های خود را زمین بگذارند و تسلیم روسیه شوند را حذف کرده است.
و کیت آیزاکس، فعال بریتانیایی، 30 ساله، گفت که وقتی صورتش در یک ویدیوی پورنو عمیقا جعلی ظاهر شد که پس از انتشار یک کاربر ناشناس در توییتر، رگباری از سوء استفاده آنلاین را به راه انداخت، گفت: «قلبش غرق شد».
آیزاکس که علیه هرزهنگاری غیراجماعی مبارزه میکند، در ماه اکتبر به نقل از بیبیسی گفت: «به یاد دارم که احساس میکردم این ویدیو قرار است همه جا پخش شود – وحشتناک بود.
در ماه بعد، دولت بریتانیا نسبت به دیپ فیک ها ابراز نگرانی کرد و نسبت به یک وب سایت محبوب که “عملاً زنان را برهنه می کند” هشدار داد.
“آخرالزمان اطلاعاتی”
بدون هیچ مانعی برای ایجاد متن، صوت و ویدئو با هوش مصنوعی، احتمال سوء استفاده در سرقت هویت، کلاهبرداری مالی و تخریب شهرت، زنگ خطر جهانی را برانگیخته است.
گروه اوراسیا ابزارهای هوش مصنوعی را «سلاح های کشتار جمعی» نامید.
این گروه در گزارشی هشدار داد: «پیشرفتهای فناوری در هوش مصنوعی اعتماد اجتماعی را از بین میبرد، عوام فریبها و اقتدارگرایان را قدرتمند میکند و کسبوکارها و بازارها را مختل میکند».
“پیشرفت در نرم افزارهای جعل عمیق، تشخیص چهره و سنتز گفتار، کنترل روی شباهت فرد را به یادگاری از گذشته تبدیل می کند.”
این هفته، ElevenLabs استارتآپ هوش مصنوعی اعتراف کرد که ابزار شبیهسازی صدا میتواند برای اهداف مخرب مورد سوء استفاده قرار گیرد، زیرا کاربران فایلهای صوتی عمیقا جعلی را منتشر کردند که ادعا میکرد بازیگری است که اما واتسون در حال خواندن زندگینامه آدولف هیتلر «Mein Kampf» است.
حجم فزاینده دیپ فیک ها می تواند منجر به چیزی شود که آژانس مجری قانون اروپایی یوروپل آن را “آخرالزمان اطلاعاتی” توصیف کرده است، سناریویی که در آن بسیاری از مردم قادر به تشخیص واقعیت از داستان نیستند.
در گزارش یوروپل آمده است: «کارشناسان بیم دارند که این امر میتواند منجر به وضعیتی شود که شهروندان دیگر واقعیت مشترکی نداشته باشند یا باعث سردرگمی عمومی در مورد اینکه کدام منابع اطلاعاتی قابل اعتماد هستند، شود.
این موضوع در آخر هفته گذشته زمانی که دامار هملین بازیکن NFL برای اولین بار پس از ایست قلبی در طول یک بازی با طرفداران خود از طریق ویدیو صحبت کرد، نشان داده شد.
هاملین از متخصصان پزشکی مسئول بهبودی او تشکر کرد، اما بسیاری از کسانی که به تئوریهای توطئه مبنی بر اینکه واکسن کووید-19 در پس فروپاشی او در میدان بود، باور داشتند، به اشتباه ویدیوی او را جعلی نامیدند.
“Super Spreader”
چین ماه گذشته قوانین جدیدی را وضع کرد که شرکتهایی را که خدمات جعلی عمیق ارائه میکنند ملزم میکند تا هویت واقعی کاربران خود را به دست آورند. آنها همچنین نیاز دارند که محتوای عمیقا جعلی به طور مناسب علامت گذاری شود تا از “همه سردرگمی” جلوگیری شود.
این قوانین پس از هشدار دولت چین مبنی بر اینکه دیپ فیک ها “خطری برای امنیت ملی و ثبات اجتماعی” هستند، وضع می شوند.
در ایالات متحده، جایی که قانونگذاران بر تشکیل یک کارگروه برای نظارت بر جعل عمیق فشار آورده اند، فعالان حقوق دیجیتال نسبت به اعمال بیش از حد قانونی که می تواند نوآوری را از بین ببرد یا محتوای قانونی را هدف قرار دهد، هشدار داده اند.
در همین حال، اتحادیه اروپا درگیر بحث های داغ در مورد قانون پیشنهادی هوش مصنوعی است.
قانونی که اتحادیه اروپا در حال رقابت برای تصویب آن در سال جاری است، کاربران را ملزم به افشای دیپفیک میکند، اما بسیاری نگرانند که این قانون در صورتی که محتوای خلاقانه یا طنز را پوشش ندهد، بیعقول باشد.
چگونه اعتماد دیجیتال را با شفافیت بازیابی کنیم؟ جیسون دیویس، استاد محقق در دانشگاه سیراکیوز به خبرگزاری فرانسه گفت: این سوال واقعی در حال حاضر است.
«ابزارهای (تشخیص) در حال آمدن هستند، و نسبتاً سریع می آیند. اما فناوری شاید حتی سریعتر در حال حرکت است. بنابراین، مانند امنیت سایبری، ما هرگز این مشکل را حل نخواهیم کرد، فقط امیدواریم که ادامه دهیم.
بسیاری در حال حاضر برای درک پیشرفت هایی مانند ChatGPT، یک ربات چت ایجاد شده توسط OpenAI مستقر در ایالات متحده که قادر به تولید متن های متقاعدکننده تقریباً در مورد هر موضوعی است، تلاش می کنند.
در مطالعهای، NewsGuard، ناظر رسانهها، که آن را «ابرق توزیعکننده اطلاعات نادرست بعدی» نامید، گفت که بیشتر پاسخهای ربات چت به درخواستهای مرتبط با موضوعاتی مانند کووید-19 و تیراندازیهای مدرسه «فصیح، نادرست و گمراهکننده» بود.
NewsGuard گفت: «نتایج نگرانیها را تأیید میکند… در مورد اینکه چگونه میتوان این ابزار را در دستان اشتباه به سلاح تبدیل کرد.