شرکت های فناوری برای مبارزه با تقلب انتخاباتی تولید شده توسط هوش مصنوعی توافق نامه امضا کردند
شرکتهای بزرگ فناوری روز جمعه قراردادی را امضا کردند که به طور داوطلبانه «ضمانتهای حفاظتی معقول» را برای جلوگیری از استفاده از ابزارهای هوش مصنوعی برای اخلال در انتخابات دموکراتیک در سراسر جهان اتخاذ میکنند.
مدیران فناوری ادوبی، آمازون، گوگل، آیبیام، متا، مایکروسافت، OpenAI و TikTok در یک کنفرانس امنیتی در مونیخ گرد هم آمدند تا چارچوب داوطلبانه جدیدی را برای نحوه پاسخگویی به دیپفیکهای تولید شده توسط هوش مصنوعی که عمداً رایدهندگان را فریب میدهند، اعلام کنند. دوازده شرکت دیگر – از جمله X Elon Musk – نیز این قرارداد را امضا کردند.
نیک کلگ، رئیس امور جهانی در متا، شرکت مادر فیس بوک، گفت: «همه می دانند که هیچ شرکت فناوری، هیچ دولت، هیچ سازمان جامعه مدنی قادر به مقابله با هجوم این فناوری و استفاده ناعادلانه بالقوه آن به تنهایی نیست. اینستاگرام، در مصاحبه ای پیش از اجلاس.
این توافق تا حد زیادی نمادین است، اما تصاویر، صدا و ویدیوی واقعیتر تولید شده توسط هوش مصنوعی را هدف قرار میدهد که به طور متقلبانه ظاهر، صدا یا عملکرد نامزدهای سیاسی، مقامات انتخاباتی و سایر سهامداران کلیدی در انتخابات دموکراتیک را جعل یا تغییر میدهند یا اطلاعات نادرستی ارائه میکنند. به رای دهندگان در مورد اینکه چه زمانی، کجا و چگونه می توانند قانونی رای دهند.
شرکت ها هیچ تعهدی برای ممنوع کردن یا حذف دیپ فیک ندارند. در عوض، این توافقنامه روشهایی را مشخص میکند که آنها برای شناسایی و پرچمگذاری محتوای تقلبی هوش مصنوعی هنگام ایجاد یا توزیع در پلتفرمهایشان استفاده خواهند کرد. اشاره میکند که شرکتها بهترین شیوهها را با یکدیگر به اشتراک میگذارند و زمانی که این محتوا شروع به انتشار کرد، «پاسخهای سریع و متناسب» ارائه میکنند.
مبهم بودن تعهدات و فقدان الزامات الزام آور احتمالاً به جلب نظر شرکت های مختلف کمک کرده است، اما ممکن است فعالان دموکراسی خواه و ناظرانی را که به دنبال تضمین های قوی تر هستند، ناامید کند.
راشل اوری، معاون ارشد پروژه انتخابات در مرکز سیاست دو حزبی، گفت: “زبان آنقدر که انتظار می رود قوی نیست.” من فکر میکنم که ما باید در جایی که اعتبار لازم است اعتبار قائل شویم و بدانیم که شرکتها منافعی دارند که ابزارهای آنها برای تضعیف انتخابات آزاد و منصفانه مورد استفاده قرار نگیرد.» گفته می شود، این داوطلبانه است و ما نظارت خواهیم کرد که آیا آنها آن را دنبال می کنند یا خیر.
کلگ گفت که هر شرکت “به درستی مجموعه ای از سیاست های محتوایی خود را دارد”.
او گفت: «این تلاشی برای پوشاندن جلیقه به همه نیست. و در هر صورت، هیچکس در صنعت فکر نمیکند که بتوانید با جارو کردن چیزها در زیر فرش و تلاش برای بازی کردن و پیدا کردن هر چیزی که فکر میکنید ممکن است کسی را گمراه کند، با یک الگوی فناوری کاملاً جدید مقابله کنید.
در اطلاعیه روز جمعه، چندین رهبر سیاسی اروپایی و آمریکایی نیز به مدیران فنی پیوستند. ورا ژورووا، معاون رئیس کمیسیون اروپا گفت که اگرچه چنین توافقی نمی تواند جامع باشد، اما “شامل بسیاری از عناصر تاثیرگذار و مثبت است”. او همچنین از سیاستمداران همکار خود خواست که مسئولیت استفاده نکردن از ابزارهای AI را تقلب کنند.
او بر جدیت این مشکل تاکید کرد و گفت که “ترکیب هوش مصنوعی در خدمت اهداف اطلاعات نادرست و کمپین های اطلاعات نادرست می تواند پایان دموکراسی باشد، نه تنها در کشورهای عضو اتحادیه اروپا.”
این توافق در نشست سالانه امنیتی در شهر آلمان در حالی صورت میگیرد که قرار است بیش از 50 کشور در سال 2024 انتخابات سراسری برگزار کنند. برخی از جمله بنگلادش، تایوان، پاکستان و اخیراً اندونزی قبلاً این کار را انجام دادهاند.
تلاشها برای تداخل انتخاباتی ناشی از هوش مصنوعی از قبل آغاز شده است، مانند زمانی که تماسهای رباتیک هوش مصنوعی که صدای جو بایدن، رئیسجمهور ایالات متحده را تقلید میکرد، سعی کردند مردم را از شرکت در انتخابات مقدماتی نیوهمپشایر در ماه گذشته منصرف کنند.
درست چند روز قبل از انتخابات نوامبر اسلواکی، تصاویر صوتی تولید شده توسط هوش مصنوعی نشان می دهد که یک نامزد لیبرال در حال بحث در مورد برنامه هایی برای افزایش قیمت آبجو و تقلب در انتخابات است. بررسیکنندگان واقعیت سعی کردند آنها را جعلی تشخیص دهند، اما قبلاً بهعنوان واقعی در رسانههای اجتماعی به اشتراک گذاشته شده بودند.
سیاستمداران و کمیتههای کمپین نیز این فناوری را آزمایش کردهاند، از استفاده از چت رباتهای هوش مصنوعی برای برقراری ارتباط با رأیدهندگان تا افزودن تصاویر تولید شده توسط هوش مصنوعی به تبلیغات.
در توافقنامه روز جمعه آمده است که در پاسخ به دیپفیکهای تولید شده توسط هوش مصنوعی، پلتفرمها به زمینه و بهویژه به حفظ عبارات آموزشی، مستند، هنری، طنز و سیاسی توجه خواهند کرد.
این شرکت میگوید این شرکتها روی شفافسازی مصرفکنندگان در مورد سیاستهایشان در مورد محتوای انتخاباتی تقلبی هوش مصنوعی تمرکز خواهند کرد و برای آموزش مردم در مورد نحوه جلوگیری از هوش مصنوعی جعلی تلاش خواهند کرد.
بسیاری از شرکتها قبلاً گفتهاند که در حال اعمال تدابیر امنیتی برای ابزارهای هوش مصنوعی خود هستند که میتوانند تصاویر و صدا را دستکاری کنند، در حالی که تلاش میکنند محتوای تولید شده توسط هوش مصنوعی را شناسایی و برچسبگذاری کنند تا کاربران رسانههای اجتماعی بدانند که آیا آنچه میبینند واقعی است یا خیر. اما اکثر راه حل های پیشنهادی هنوز اجرا نشده اند و شرکت ها برای انجام کارهای بیشتر از سوی رگولاتورها و سایرین تحت فشار هستند.
این فشار در ایالات متحده در حال تشدید است، جایی که کنگره هنوز قوانینی را تصویب نکرده است که هوش مصنوعی را در سیاست تنظیم می کند، و شرکت های هوش مصنوعی را تا حد زیادی به حال خود رها می کند. در غیاب قوانین فدرال، بسیاری از ایالتها در حال بررسی راههایی برای قرار دادن نردههای محافظ در اطراف استفاده از هوش مصنوعی، در انتخابات و سایر کاربردها هستند.
کمیسیون ارتباطات فدرال اخیرا تأیید کرده است که کلیپهای صوتی تولید شده توسط هوش مصنوعی در تماسهای رباتیک خلاف قانون هستند، اما جعل صوتی عمیق زمانی که در رسانههای اجتماعی یا در تبلیغات کمپین پخش میشود را پوشش نمیدهد.
کارشناسان اطلاعات نادرست هشدار میدهند که در حالی که دیپفیکهای هوش مصنوعی به دلیل پتانسیل آنها برای ماندن در زیر رادار و تأثیرگذاری بر رایدهندگان در سال جاری نگرانکننده هستند، اشکال ارزانتر و سادهتر اطلاعات نادرست همچنان یک تهدید بزرگ هستند. این توافقنامه همچنین به این نکته اشاره میکند و اذعان میکند که «دستکاریهای سنتی («جعلیهای ارزان») میتوانند برای اهداف مشابه استفاده شوند.
بسیاری از شرکتهای رسانههای اجتماعی در حال حاضر سیاستهایی برای جلوگیری از پستهای تقلبی در مورد فرآیندهای انتخاباتی دارند – ایجاد شده توسط هوش مصنوعی یا نه. برای مثال، متا میگوید اطلاعات نادرست درباره «تاریخ، مکان، زمان و روشهای رأیگیری، ثبتنام برای رأی دادن یا شرکت در سرشماری» و همچنین سایر پستهای نادرست که برای جلوگیری از مشارکت مدنی طراحی شدهاند را حذف میکند.
جف آلن، یکی از بنیانگذاران مؤسسه Integrity و دانشمند سابق داده در فیس بوک، گفت که حل و فصل یک “گام مثبت” به نظر می رسد، اما همچنان مایل است شرکت های رسانه های اجتماعی گام های اساسی دیگری را برای مبارزه با اطلاعات نادرست، مانند ساخت سیستم هایی برای مقابله با اطلاعات نادرست، بردارند. توصیه محتوایی که تعامل را بیش از هر چیز در اولویت قرار نمی دهد.
لیزا گیلبرت، معاون اجرایی گروه حمایت از شهروندان عمومی، جمعه استدلال کرد که تسویه حساب «کافی نیست» و شرکتهای هوش مصنوعی باید «فناوریهایی» مانند تولیدکنندگان متن به ویدیوی فوقواقعی را «تا زمانی که تدابیر اساسی و کافی وجود داشته باشد، حفظ کنند. به ما کمک کند تا از بسیاری از مشکلات احتمالی جلوگیری کنیم.»
علاوه بر پلتفرمهای اصلی که به توافق جمعه کمک کردند، سایر امضاکنندگان شامل توسعهدهندگان رباتهای گفتگوی Anthropic و Inflection AI هستند. استارتاپ شبیه سازی صدا ElevenLabs; طراح تراشه Arm Holdings; شرکت های امنیتی McAfee و TrendMicro؛ و Stability AI، که به خاطر ساخت مولد تصویر Stable Diffusion معروف است.
یکی دیگر از تولیدکنندههای تصویر هوش مصنوعی، Midjourney، که در این توافقنامه غایب است. استارت آپ مستقر در سانفرانسیسکو بلافاصله درخواستی برای اظهار نظر در روز جمعه ارائه نکرد.
گنجاندن X – که در یک اعلامیه قبلی در مورد توافق آینده به آن اشاره نشده است – یکی از بزرگترین غافلگیری ها در توافق روز جمعه بود. ماسک از زمان تصاحب توییتر سابق به شدت تیمهای تعدیل محتوا را محدود کرده و خود را «مطلق خواه آزادی بیان» توصیف کرده است.
اما لیندا یاکارینو، مدیرعامل ایکس در بیانیهای روز جمعه گفت: «هر شهروند و شرکتی مسئولیت تضمین برگزاری انتخابات آزاد و عادلانه را دارد».
او گفت: «X به ایفای نقش خود، همکاری با همکاران برای مبارزه با تهدیدات هوش مصنوعی، در عین محافظت از آزادی بیان و به حداکثر رساندن شفافیت اختصاص دارد.