تکنولوژی

شرکت های فناوری و هوش مصنوعی برای مبارزه با تقلب عمیق در انتخابات توافق نامه امضا کردند

گروهی متشکل از 20 شرکت پیشرو در فناوری روز جمعه تعهد مشترک خود را برای مبارزه با اطلاعات نادرست هوش مصنوعی در انتخابات امسال اعلام کردند.

این صنعت به طور خاص پیام‌های جعلی عمیق را هدف قرار می‌دهد که می‌توانند از صدا، ویدیو و تصاویر فریبنده برای جعل هویت سهامداران کلیدی در انتخابات دموکراتیک یا ارائه اطلاعات رای نادرست استفاده کنند.

مایکروسافت، متا، گوگل، آمازون، IBM، Adobe و طراح تراشه بازو همه قرارداد را امضا کردند. استارت آپ های هوش مصنوعی OpenAI، Anthropic و Stability AI نیز به همراه شرکت های رسانه های اجتماعی مانند یک کلیکTikTok و X.

پلتفرم های فناوری در حال آماده شدن برای یک سال انتخاباتی عظیم در سراسر جهان هستند که بیش از چهار میلیارد نفر را در بیش از 40 کشور تحت تأثیر قرار می دهد. بر اساس داده‌های Clarity، یک شرکت یادگیری ماشین، افزایش محتوای تولید شده توسط هوش مصنوعی منجر به نگرانی‌های جدی در مورد اطلاعات نادرست مرتبط با انتخابات شده است، به طوری که تعداد جعلی‌های عمیق که هر ساله 900 درصد افزایش می‌یابد.

اطلاعات نادرست انتخاباتی یک مشکل بزرگ از زمان مبارزات انتخاباتی ریاست جمهوری 2016 بوده است، زمانی که بازیگران روسی راه های ارزان و آسانی برای انتشار محتوای نادرست در سیستم عامل های اجتماعی پیدا کردند. امروز، قانون‌گذاران حتی بیشتر نگران رشد سریع هوش مصنوعی هستند.

جاش بکر، سناتور دموکرات کالیفرنیا در مصاحبه ای گفت: «دلیل نگرانی جدی در مورد اینکه چگونه می توان از هوش مصنوعی برای گمراه کردن رأی دهندگان در کمپین ها استفاده کرد، وجود دارد. “این دلگرم کننده است که می بینیم برخی از شرکت ها پای میز مذاکره می آیند، اما من در حال حاضر جزئیات کافی را نمی بینم، بنابراین احتمالاً به قانونی نیاز خواهیم داشت که استانداردهای روشنی را تعیین کند.”

مطلب پیشنهادی:  تهدیدی برای زندگی! دانشمندان ناسا یک تهدید ستاره ای جدید برای سیارات شناسایی کرده اند

در همین حال، فناوری‌های تشخیص و واترمارکینگ مورد استفاده برای شناسایی دیپ‌فیک‌ها به اندازه کافی سریع پیشرفت نکرده‌اند. در حال حاضر، شرکت ها به سادگی در مورد آنچه که مجموعه ای از استانداردهای فنی و مکانیسم های تشخیص را تشکیل می دهد، توافق می کنند.

آنها راه درازی در پیش دارند تا به طور موثر با این مشکل برخورد کنند که لایه های زیادی دارد. به عنوان مثال، سرویس‌هایی که ادعا می‌کنند متن تولید شده با هوش مصنوعی را شناسایی می‌کنند، مانند مقاله‌ها، نسبت به غیر انگلیسی‌زبان‌ها تعصب نشان می‌دهند. و برای تصاویر و ویدیوها خیلی راحت تر نمی شود.

حتی اگر پلتفرم‌های پشت تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی با استفاده از مواردی مانند واترمارک نامرئی و انواع خاصی از ابرداده موافقت کنند، راه‌هایی برای دور زدن این حفاظت‌ها وجود دارد. گرفتن اسکرین شات حتی گاهی اوقات می تواند آشکارساز را فریب دهد.

همچنین، سیگنال‌های نامرئی که برخی از شرکت‌ها در تصاویر تولید شده با هوش مصنوعی گنجانده‌اند، هنوز به بسیاری از تولیدکنندگان صوتی و تصویری نرسیده‌اند.

خبر این توافق یک روز پس از آن منتشر شد که سازنده ChatGPT OpenAI، Sora، مدل جدید خود را برای ویدیوهای تولید شده توسط هوش مصنوعی معرفی کرد. Sora مشابه ابزار تصویربرداری هوش مصنوعی OpenAI، DALL-E عمل می کند. کاربر وارد صحنه مورد نظر می شود و Sora یک ویدیو با کیفیت بالا برمی گرداند. Sora همچنین می‌تواند ویدیوهایی با الهام از تصاویر ثابت تولید کند و ویدیوهای موجود را گسترش دهد یا فیلم‌های از دست رفته را پر کند.

مطلب پیشنهادی:  کلکته دورگا پوجا وارد دنیای متاورس می شود

شرکت‌های شرکت‌کننده در توافق با هشت تعهد سطح بالا، از جمله ارزیابی ریسک‌های مدل «به‌دنبال شناسایی» و رسیدگی به توزیع چنین محتوایی در پلت‌فرم‌های خود و شفاف‌سازی این فرآیندها برای عموم موافقت کردند. مانند بسیاری از تعهدات داوطلبانه در صنعت فناوری و فراتر از آن، این اطلاعیه تصریح می‌کند که این تعهدات فقط «در مواردی که برای خدمات ارائه‌شده توسط هر شرکت مناسب باشد» اعمال می‌شود.

کنت واکر، رئیس امور جهانی گوگل، در بیانیه ای گفت: «دموکراسی بر پایه انتخابات ایمن و ایمن بنا شده است. او گفت که این توافق نشان دهنده تلاش های صنعت برای رسیدگی به “اطلاعات نادرست انتخاباتی ایجاد شده توسط هوش مصنوعی است که اعتماد را تضعیف می کند.”

کریستینا مونتگومری، مسئول حریم خصوصی و اعتماد IBM، در این انتشار گفت که در این سال انتخاباتی کلیدی، “اقدامات مشارکتی مشخصی برای محافظت از مردم و جوامع در برابر افزایش خطرات محتوای تقلبی تولید شده توسط هوش مصنوعی مورد نیاز است.”

تماشا کردن: OpenAI از Sora رونمایی کرد

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا