تکنولوژی

شرکت های فناوری برای مبارزه با تقلب انتخاباتی تولید شده توسط هوش مصنوعی توافق نامه امضا کردند

شرکت‌های بزرگ فناوری روز جمعه قراردادی را امضا کردند که به طور داوطلبانه «ضمانت‌های حفاظتی معقول» را برای جلوگیری از استفاده از ابزارهای هوش مصنوعی برای اخلال در انتخابات دموکراتیک در سراسر جهان اتخاذ می‌کنند.

مدیران فناوری ادوبی، آمازون، گوگل، آی‌بی‌ام، متا، مایکروسافت، OpenAI و TikTok در یک کنفرانس امنیتی در مونیخ گرد هم آمدند تا چارچوب داوطلبانه جدیدی را برای نحوه پاسخگویی به دیپ‌فیک‌های تولید شده توسط هوش مصنوعی که عمداً رای‌دهندگان را فریب می‌دهند، اعلام کنند. دوازده شرکت دیگر – از جمله X Elon Musk – نیز این قرارداد را امضا کردند.

نیک کلگ، رئیس امور جهانی در متا، شرکت مادر فیس بوک، گفت: «همه می دانند که هیچ شرکت فناوری، هیچ دولت، هیچ سازمان جامعه مدنی قادر به مقابله با هجوم این فناوری و استفاده ناعادلانه بالقوه آن به تنهایی نیست. اینستاگرام، در مصاحبه ای پیش از اجلاس.

این توافق تا حد زیادی نمادین است، اما تصاویر، صدا و ویدیوی واقعی‌تر تولید شده توسط هوش مصنوعی را هدف قرار می‌دهد که به طور متقلبانه ظاهر، صدا یا عملکرد نامزدهای سیاسی، مقامات انتخاباتی و سایر سهامداران کلیدی در انتخابات دموکراتیک را جعل یا تغییر می‌دهند یا اطلاعات نادرستی ارائه می‌کنند. به رای دهندگان در مورد اینکه چه زمانی، کجا و چگونه می توانند قانونی رای دهند.

شرکت ها هیچ تعهدی برای ممنوع کردن یا حذف دیپ فیک ندارند. در عوض، این توافقنامه روش‌هایی را مشخص می‌کند که آن‌ها برای شناسایی و پرچم‌گذاری محتوای تقلبی هوش مصنوعی هنگام ایجاد یا توزیع در پلتفرم‌هایشان استفاده خواهند کرد. اشاره می‌کند که شرکت‌ها بهترین شیوه‌ها را با یکدیگر به اشتراک می‌گذارند و زمانی که این محتوا شروع به انتشار کرد، «پاسخ‌های سریع و متناسب» ارائه می‌کنند.

مبهم بودن تعهدات و فقدان الزامات الزام آور احتمالاً به جلب نظر شرکت های مختلف کمک کرده است، اما ممکن است فعالان دموکراسی خواه و ناظرانی را که به دنبال تضمین های قوی تر هستند، ناامید کند.

راشل اوری، معاون ارشد پروژه انتخابات در مرکز سیاست دو حزبی، گفت: “زبان آنقدر که انتظار می رود قوی نیست.” من فکر می‌کنم که ما باید در جایی که اعتبار لازم است اعتبار قائل شویم و بدانیم که شرکت‌ها منافعی دارند که ابزارهای آنها برای تضعیف انتخابات آزاد و منصفانه مورد استفاده قرار نگیرد.» گفته می شود، این داوطلبانه است و ما نظارت خواهیم کرد که آیا آنها آن را دنبال می کنند یا خیر.

مطلب پیشنهادی:  دعوت ویژه ناسا: به جشن خورشید گرفتگی کامل آمریکای شمالی بپیوندید

کلگ گفت که هر شرکت “به درستی مجموعه ای از سیاست های محتوایی خود را دارد”.

او گفت: «این تلاشی برای پوشاندن جلیقه به همه نیست. و در هر صورت، هیچ‌کس در صنعت فکر نمی‌کند که بتوانید با جارو کردن چیزها در زیر فرش و تلاش برای بازی کردن و پیدا کردن هر چیزی که فکر می‌کنید ممکن است کسی را گمراه کند، با یک الگوی فناوری کاملاً جدید مقابله کنید.

در اطلاعیه روز جمعه، چندین رهبر سیاسی اروپایی و آمریکایی نیز به مدیران فنی پیوستند. ورا ژورووا، معاون رئیس کمیسیون اروپا گفت که اگرچه چنین توافقی نمی تواند جامع باشد، اما “شامل بسیاری از عناصر تاثیرگذار و مثبت است”. او همچنین از سیاستمداران همکار خود خواست که مسئولیت استفاده نکردن از ابزارهای AI را تقلب کنند.

او بر جدیت این مشکل تاکید کرد و گفت که “ترکیب هوش مصنوعی در خدمت اهداف اطلاعات نادرست و کمپین های اطلاعات نادرست می تواند پایان دموکراسی باشد، نه تنها در کشورهای عضو اتحادیه اروپا.”

این توافق در نشست سالانه امنیتی در شهر آلمان در حالی صورت می‌گیرد که قرار است بیش از 50 کشور در سال 2024 انتخابات سراسری برگزار کنند. برخی از جمله بنگلادش، تایوان، پاکستان و اخیراً اندونزی قبلاً این کار را انجام داده‌اند.

تلاش‌ها برای تداخل انتخاباتی ناشی از هوش مصنوعی از قبل آغاز شده است، مانند زمانی که تماس‌های رباتیک هوش مصنوعی که صدای جو بایدن، رئیس‌جمهور ایالات متحده را تقلید می‌کرد، سعی کردند مردم را از شرکت در انتخابات مقدماتی نیوهمپشایر در ماه گذشته منصرف کنند.

درست چند روز قبل از انتخابات نوامبر اسلواکی، تصاویر صوتی تولید شده توسط هوش مصنوعی نشان می دهد که یک نامزد لیبرال در حال بحث در مورد برنامه هایی برای افزایش قیمت آبجو و تقلب در انتخابات است. بررسی‌کنندگان واقعیت سعی کردند آن‌ها را جعلی تشخیص دهند، اما قبلاً به‌عنوان واقعی در رسانه‌های اجتماعی به اشتراک گذاشته شده بودند.

سیاستمداران و کمیته‌های کمپین نیز این فناوری را آزمایش کرده‌اند، از استفاده از چت ربات‌های هوش مصنوعی برای برقراری ارتباط با رأی‌دهندگان تا افزودن تصاویر تولید شده توسط هوش مصنوعی به تبلیغات.

مطلب پیشنهادی:  هشدار شعله ور شدن خورشیدی: دانشمندان روسی در مورد هرج و مرج ارتباطی امروز در زمین هشدار می دهند!

در توافقنامه روز جمعه آمده است که در پاسخ به دیپ‌فیک‌های تولید شده توسط هوش مصنوعی، پلتفرم‌ها به زمینه و به‌ویژه به حفظ عبارات آموزشی، مستند، هنری، طنز و سیاسی توجه خواهند کرد.

این شرکت می‌گوید این شرکت‌ها روی شفاف‌سازی مصرف‌کنندگان در مورد سیاست‌هایشان در مورد محتوای انتخاباتی تقلبی هوش مصنوعی تمرکز خواهند کرد و برای آموزش مردم در مورد نحوه جلوگیری از هوش مصنوعی جعلی تلاش خواهند کرد.

بسیاری از شرکت‌ها قبلاً گفته‌اند که در حال اعمال تدابیر امنیتی برای ابزارهای هوش مصنوعی خود هستند که می‌توانند تصاویر و صدا را دستکاری کنند، در حالی که تلاش می‌کنند محتوای تولید شده توسط هوش مصنوعی را شناسایی و برچسب‌گذاری کنند تا کاربران رسانه‌های اجتماعی بدانند که آیا آنچه می‌بینند واقعی است یا خیر. اما اکثر راه حل های پیشنهادی هنوز اجرا نشده اند و شرکت ها برای انجام کارهای بیشتر از سوی رگولاتورها و سایرین تحت فشار هستند.

این فشار در ایالات متحده در حال تشدید است، جایی که کنگره هنوز قوانینی را تصویب نکرده است که هوش مصنوعی را در سیاست تنظیم می کند، و شرکت های هوش مصنوعی را تا حد زیادی به حال خود رها می کند. در غیاب قوانین فدرال، بسیاری از ایالت‌ها در حال بررسی راه‌هایی برای قرار دادن نرده‌های محافظ در اطراف استفاده از هوش مصنوعی، در انتخابات و سایر کاربردها هستند.

کمیسیون ارتباطات فدرال اخیرا تأیید کرده است که کلیپ‌های صوتی تولید شده توسط هوش مصنوعی در تماس‌های رباتیک خلاف قانون هستند، اما جعل صوتی عمیق زمانی که در رسانه‌های اجتماعی یا در تبلیغات کمپین پخش می‌شود را پوشش نمی‌دهد.

کارشناسان اطلاعات نادرست هشدار می‌دهند که در حالی که دیپ‌فیک‌های هوش مصنوعی به دلیل پتانسیل آن‌ها برای ماندن در زیر رادار و تأثیرگذاری بر رای‌دهندگان در سال جاری نگران‌کننده هستند، اشکال ارزان‌تر و ساده‌تر اطلاعات نادرست همچنان یک تهدید بزرگ هستند. این توافقنامه همچنین به این نکته اشاره می‌کند و اذعان می‌کند که «دستکاری‌های سنتی («جعلی‌های ارزان») می‌توانند برای اهداف مشابه استفاده شوند.

بسیاری از شرکت‌های رسانه‌های اجتماعی در حال حاضر سیاست‌هایی برای جلوگیری از پست‌های تقلبی در مورد فرآیندهای انتخاباتی دارند – ایجاد شده توسط هوش مصنوعی یا نه. برای مثال، متا می‌گوید اطلاعات نادرست درباره «تاریخ، مکان، زمان و روش‌های رأی‌گیری، ثبت‌نام برای رأی دادن یا شرکت در سرشماری» و همچنین سایر پست‌های نادرست که برای جلوگیری از مشارکت مدنی طراحی شده‌اند را حذف می‌کند.

مطلب پیشنهادی:  بیت کوین به 25000 دلار رسید! سرمایه گذاران می گویند زمانی که SEC تهاجمی می شود، کریپتو جذاب تر می شود

جف آلن، یکی از بنیانگذاران مؤسسه Integrity و دانشمند سابق داده در فیس بوک، گفت که حل و فصل یک “گام مثبت” به نظر می رسد، اما همچنان مایل است شرکت های رسانه های اجتماعی گام های اساسی دیگری را برای مبارزه با اطلاعات نادرست، مانند ساخت سیستم هایی برای مقابله با اطلاعات نادرست، بردارند. توصیه محتوایی که تعامل را بیش از هر چیز در اولویت قرار نمی دهد.

لیزا گیلبرت، معاون اجرایی گروه حمایت از شهروندان عمومی، جمعه استدلال کرد که تسویه حساب «کافی نیست» و شرکت‌های هوش مصنوعی باید «فناوری‌هایی» مانند تولیدکنندگان متن به ویدیوی فوق‌واقعی را «تا زمانی که تدابیر اساسی و کافی وجود داشته باشد، حفظ کنند. به ما کمک کند تا از بسیاری از مشکلات احتمالی جلوگیری کنیم.»

علاوه بر پلتفرم‌های اصلی که به توافق جمعه کمک کردند، سایر امضاکنندگان شامل توسعه‌دهندگان ربات‌های گفتگوی Anthropic و Inflection AI هستند. استارتاپ شبیه سازی صدا ElevenLabs; طراح تراشه Arm Holdings; شرکت های امنیتی McAfee و TrendMicro؛ و Stability AI، که به خاطر ساخت مولد تصویر Stable Diffusion معروف است.

یکی دیگر از تولیدکننده‌های تصویر هوش مصنوعی، Midjourney، که در این توافقنامه غایب است. استارت آپ مستقر در سانفرانسیسکو بلافاصله درخواستی برای اظهار نظر در روز جمعه ارائه نکرد.

گنجاندن X – که در یک اعلامیه قبلی در مورد توافق آینده به آن اشاره نشده است – یکی از بزرگترین غافلگیری ها در توافق روز جمعه بود. ماسک از زمان تصاحب توییتر سابق به شدت تیم‌های تعدیل محتوا را محدود کرده و خود را «مطلق خواه آزادی بیان» توصیف کرده است.

اما لیندا یاکارینو، مدیرعامل ایکس در بیانیه‌ای روز جمعه گفت: «هر شهروند و شرکتی مسئولیت تضمین برگزاری انتخابات آزاد و عادلانه را دارد».

او گفت: «X به ایفای نقش خود، همکاری با همکاران برای مبارزه با تهدیدات هوش مصنوعی، در عین محافظت از آزادی بیان و به حداکثر رساندن شفافیت اختصاص دارد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا