تکنولوژی

دیپ فیک در سال انتخابات – آیا آسیا آماده مقابله با اخبار جعلی است؟

انتظار می رود سال 2024 بزرگترین سال انتخابات جهانی در تاریخ باشد. این مصادف است با افزایش سریع دیپ فیک. طبق گزارش سامساب، تنها در منطقه آسیا و اقیانوسیه، جهش 1530 درصدی در جعل عمیق از سال 2022 تا 2023 مشاهده شد.

لینک عکس | ایستوک | گتی ایماژ

پیش از انتخابات 14 فوریه اندونزی، الف ویدئو سوهارتو، رئیس‌جمهور فقید اندونزی که برای حزب سیاسی که زمانی ریاست آن را بر عهده داشت، ایستادگی کرده است.

ویدیوی جعلی عمیق تولید شده توسط هوش مصنوعی که چهره و صدای او را شبیه سازی می کند، تنها در X 4.7 میلیون بازدید داشته است.

این یک حادثه یک بار نبود.

در پاکستان، حول و حوش انتخابات ملی، یک جعلی عمیق از عمران خان، نخست وزیر سابق، ظاهر شد که اعلام کرد حزبش آنها را تحریم می کند. در همین حال، در ایالات متحده، رای دهندگان نیوهمپشایر یک جعلی عمیق از رئیس جمهور جو بایدن شنیدند که از آنها خواسته بود در انتخابات مقدماتی ریاست جمهوری رای ندهند.

Deepfkes سیاستمداران رایج تر می شود، به ویژه از آنجایی که انتظار می رود سال 2024 بزرگترین سال انتخابات جهانی در تاریخ باشد.

حداقل 60 کشور و بیش از چهار میلیارد نفر در سال جاری به رهبران و نمایندگان خود رای خواهند داد و تقلب عمیق را به یک نگرانی جدی تبدیل کرده است.

خطرات فزاینده ناشی از تقلب عمیق در انتخابات

بر اساس گزارش سام ساب در ماه نوامبر، تعداد دیپ فیک ها در سراسر جهان از سال 2022 تا 2023 10 برابر شده است. تنها در منطقه آسیا و اقیانوسیه، دیپ فیک ها 1530 درصد در طول مدت مشابه افزایش یافته است.

رسانه‌های آنلاین، از جمله پلت‌فرم‌های اجتماعی و تبلیغات دیجیتال، با 274 درصد بیشترین افزایش را در نرخ کلاهبرداری هویت بین سال‌های 2021 تا 2023 داشته‌اند. خدمات حرفه‌ای، مراقبت‌های بهداشتی، حمل‌ونقل و بازی‌های ویدیویی نیز از جمله صنایعی بودند که تحت تأثیر کلاهبرداری هویت قرار گرفتند.

سایمون چسترمن، مدیر ارشد مدیریت هوش مصنوعی در AI سنگاپور گفت که آسیا آمادگی مقابله با تقلب عمیق در انتخابات را از نظر مقررات، فناوری و آموزش ندارد.

شرکت امنیت سایبری Crowdstrike در گزارش تهدید جهانی 2024 خود گزارش داد که با توجه به تعداد انتخاباتی که برای امسال برنامه ریزی شده است، به احتمال زیاد بازیگران دولت-ملت، از جمله چین، روسیه و ایران، کمپین های اطلاعات نادرست یا اطلاعات نادرست را برای ایجاد اختلال انجام دهند.

مطلب پیشنهادی:  پس از برخورد سیارک، هرا ناسا برای بررسی "صحنه جنایت"

چسترمن گفت: «مداخلات جدی‌تر این است که یک قدرت بزرگ تصمیم بگیرد که می‌خواهد انتخابات را در یک کشور مختل کند – احتمالاً تأثیرگذارتر از احزاب سیاسی است که در حاشیه بازی می‌کنند.»

اگرچه چندین دولت ابزارهایی دارند (برای جلوگیری از دروغ‌های آنلاین)، ترس این است که جن قبل از اینکه فرصتی برای عقب راندن آن داشته باشد، از بطری خارج شود.

سایمون چسترمن

مدیر ارشد هوش مصنوعی سنگاپور

او گفت، با این حال، اکثر دیپ فیک ها همچنان توسط بازیگران کشورهای مربوطه تولید می شوند.

کارول سون، محقق اصلی و رئیس جامعه و فرهنگ در موسسه مطالعات سیاست سنگاپور، گفت که بازیگران داخلی می توانند شامل احزاب مخالف و مخالفان سیاسی یا احزاب راست افراطی و چپ باشند.

خطرات دیپ فیک

سون گفت که حداقل، تقلبی های عمیق اکوسیستم اطلاعاتی را آلوده می کند و یافتن اطلاعات دقیق یا ایجاد نظر آگاهانه درباره یک حزب یا نامزد را برای مردم دشوار می کند.

چسترمن گفت، اگر یک کاندیدای خاص رای دهندگان را در صورت مشاهده محتوایی در مورد یک موضوع رسوایی که قبل از اینکه جعلی اعلام شود، در فضای مجازی پخش می شود، می تواند از کار خارج شود. اگرچه چندین دولت ابزارهایی در اختیار دارند (برای جلوگیری از دروغ‌های آنلاین)، نگرانی این است که جن قبل از اینکه فرصتی برای عقب راندن داشته باشد، از بطری خارج شود.

«ما دیدیم که با چه سرعتی می‌توان X را تصاحب کرد پورنوگرافی عمیقا جعلی با تیلور سوئیفت – این چیزها می توانند به سرعتی باورنکردنی منتشر شوند.

ساختن یک ویدیوی جعلی عمیق چقدر آسان است؟

آدام مایرز، رئیس عملیات ضد خصمانه در CrowdStrike، گفت که جعل‌های عمیق نیز می‌توانند سوگیری تأیید را در افراد ایجاد کنند: «حتی اگر آنها در قلب خود بدانند که این درست نیست، اگر این پیامی است که می‌خواهند و چیزی است که می‌خواهند به آن باور داشته باشند، آنها آن را رها نمی کنند.”

چسترمن همچنین گفت که فیلم های جعلی که نشان دهنده رفتار نادرست انتخاباتی، مانند پر کردن برگه های رای است، می تواند باعث شود مردم اعتماد خود را به اعتبار انتخابات از دست بدهند.

مطلب پیشنهادی:  سازنده آیفون تایوانی پس از کمک مالی 9 میلیارد دلاری از برترین سازنده تراشه چین حمایت می کند

سون گفت، از سوی دیگر، کاندیداها ممکن است حقیقت را در مورد خود انکار کنند، که ممکن است منفی یا ناخوشایند باشد، و در عوض آن را به جعلیات عمیق نسبت دهند.

Deepfakes در انتخابات 2024: آنچه باید بدانید

چه کسی باید پاسخگو باشد؟

چسترمن گفت که اکنون این درک وجود دارد که باید مسئولیت بیشتری را از پلتفرم های رسانه های اجتماعی به دلیل نقش شبه عمومی که ایفا می کنند، پذیرفت.

در ماه فوریه، 20 شرکت فناوری پیشرو، از جمله مایکروسافت، متا، گوگل، آمازون، آی‌بی‌ام و همچنین استارت‌آپ هوش مصنوعی OpenAI و شرکت‌های رسانه‌های اجتماعی مانند اسنپ، تیک تاک و ایکس تعهد مشترکی را برای مبارزه با استفاده تقلبی از هوش مصنوعی در انتخابات امسال اعلام کرده‌اند.

سون گفت که قرارداد فناوری امضا شده اولین گام مهمی است، اما اثربخشی آن به اجرا و اجرا بستگی دارد. او گفت که از آنجایی که شرکت های فناوری اقدامات مختلفی را در پلتفرم های خود اتخاذ می کنند، یک رویکرد چند جانبه مورد نیاز است.

سون افزود که شرکت های فناوری همچنین باید در مورد انواع تصمیمات اتخاذ شده، مانند انواع فرآیندهایی که در محل قرار می گیرند، بسیار شفاف باشند.

اما چسترمن گفت که انتظار اینکه شرکت‌های خصوصی کارهایی را که اساساً عمومی هستند انجام دهند نیز غیرمنطقی است. او گفت که تصمیم گیری در مورد اینکه چه محتوایی در رسانه های اجتماعی مجاز باشد تصمیم دشواری است و تصمیم گیری شرکت ها ممکن است ماه ها طول بکشد.

همانطور که دیپ فیک ها رشد می کنند، فیس بوک، توییتر و گوگل در تلاش برای شناسایی و جلوگیری از آنها هستند

چسترمن افزود: ما نباید فقط به نیت خیر این شرکت ها تکیه کنیم. به همین دلیل باید مقرراتی وضع شود و انتظاراتی برای این شرکت ها تعیین شود.»

برای این منظور، ائتلاف برای منشأ و اعتبار محتوا (C2PA)، یک سازمان غیرانتفاعی، شناسه‌های محتوای دیجیتالی را معرفی کرده است که به بینندگان اطلاعات تأیید شده، مانند اطلاعات مربوط به سازنده، مکان و زمان ایجاد آن، و اینکه آیا هوش مصنوعی مولد بوده است یا خیر، معرفی کرده است. برای ایجاد مواد استفاده می شود.

مطلب پیشنهادی:  چت ربات ها را فراموش کنید، اینگونه است که شرکت های آمریکایی واقعاً از هوش مصنوعی استفاده می کنند

شرکت های عضو C2PA عبارتند از Adobe، Microsoft، Google و Intel.

OpenAI اعلام کرد که اعتبار محتوای C2PA را در تصاویر ایجاد شده با ارائه DALL·E 3 خود در اوایل امسال پیاده‌سازی خواهد کرد.

«فکر می‌کنم خیلی وحشتناک خواهد بود اگر بگویم: «اوه، بله، نگران نیستم. حس خوبی دارم توپ توپم.' برای مثال، امسال باید این موضوع را از نزدیک تماشا کنیم [with] نظارت فوق العاده سخت [and] بازخورد فوق العاده فشرده.”

سام آلتمن، بنیانگذار و مدیر عامل OpenAI در مصاحبه ای با خانه بلومبرگ در مجمع جهانی اقتصاد در ژانویه گفت که این شرکت “بسیار متمرکز” است تا اطمینان حاصل کند که از فناوری آن برای دستکاری در انتخابات استفاده نمی شود.

او گفت: “من فکر می کنم نقش ما با نقش یک پلت فرم توزیع” مانند یک سایت رسانه های اجتماعی یا یک ناشر اخبار بسیار متفاوت است. ما باید با آنها کار کنیم، بنابراین مثل این است که اینجا تولید کنیم و اینجا توزیع کنیم. و باید گفتگوی خوبی بین آنها وجود داشته باشد.»

مایرز ایجاد یک سازمان فنی غیرانتفاعی و دو حزبی را با مأموریت انحصاری تجزیه و تحلیل و شناسایی تقلبی های عمیق پیشنهاد کرد.

او گفت: «سپس مردم می توانند محتوایی را که گمان می کنند دستکاری شده است برایشان ارسال کنند. بی عیب و نقص نیست، اما حداقل مکانیسمی وجود دارد که مردم می توانند به آن تکیه کنند.

چسترمن گفت، اما در نهایت، در حالی که فناوری بخشی از راه حل است، بسیاری از آن به این بستگی دارد که مصرف کنندگان هنوز آماده نیستند.

به زودی نیز بر اهمیت آموزش عمومی تاکید کرد.

او گفت: «ما باید به تلاش‌های اطلاع رسانی و مشارکت برای افزایش هوشیاری و آگاهی زمانی که مردم با اطلاعات مواجه می‌شوند، ادامه دهیم.

جامعه باید هوشیارتر باشد. او گفت، علاوه بر بررسی واقعیت زمانی که چیزی بسیار مشکوک است، کاربران باید اطلاعات مهم را نیز بررسی کنند، به خصوص قبل از به اشتراک گذاشتن آن با دیگران.

اسکورو گفت: «همه کاری برای انجام دادن وجود دارد. “همه چیز در دست است.”

– مکنزی سیگالوس و رایان براون از CNBC در این گزارش مشارکت داشتند.



نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا