شرکت های فناوری و هوش مصنوعی برای مبارزه با تقلب عمیق در انتخابات توافق نامه امضا کردند
گروهی متشکل از 20 شرکت پیشرو در فناوری روز جمعه تعهد مشترک خود را برای مبارزه با اطلاعات نادرست هوش مصنوعی در انتخابات امسال اعلام کردند.
این صنعت به طور خاص پیامهای جعلی عمیق را هدف قرار میدهد که میتوانند از صدا، ویدیو و تصاویر فریبنده برای جعل هویت سهامداران کلیدی در انتخابات دموکراتیک یا ارائه اطلاعات رای نادرست استفاده کنند.
مایکروسافت، متا، گوگل، آمازون، IBM، Adobe و طراح تراشه بازو همه قرارداد را امضا کردند. استارت آپ های هوش مصنوعی OpenAI، Anthropic و Stability AI نیز به همراه شرکت های رسانه های اجتماعی مانند یک کلیکTikTok و X.
پلتفرم های فناوری در حال آماده شدن برای یک سال انتخاباتی عظیم در سراسر جهان هستند که بیش از چهار میلیارد نفر را در بیش از 40 کشور تحت تأثیر قرار می دهد. بر اساس دادههای Clarity، یک شرکت یادگیری ماشین، افزایش محتوای تولید شده توسط هوش مصنوعی منجر به نگرانیهای جدی در مورد اطلاعات نادرست مرتبط با انتخابات شده است، به طوری که تعداد جعلیهای عمیق که هر ساله 900 درصد افزایش مییابد.
اطلاعات نادرست انتخاباتی یک مشکل بزرگ از زمان مبارزات انتخاباتی ریاست جمهوری 2016 بوده است، زمانی که بازیگران روسی راه های ارزان و آسانی برای انتشار محتوای نادرست در سیستم عامل های اجتماعی پیدا کردند. امروز، قانونگذاران حتی بیشتر نگران رشد سریع هوش مصنوعی هستند.
جاش بکر، سناتور دموکرات کالیفرنیا در مصاحبه ای گفت: «دلیل نگرانی جدی در مورد اینکه چگونه می توان از هوش مصنوعی برای گمراه کردن رأی دهندگان در کمپین ها استفاده کرد، وجود دارد. “این دلگرم کننده است که می بینیم برخی از شرکت ها پای میز مذاکره می آیند، اما من در حال حاضر جزئیات کافی را نمی بینم، بنابراین احتمالاً به قانونی نیاز خواهیم داشت که استانداردهای روشنی را تعیین کند.”
در همین حال، فناوریهای تشخیص و واترمارکینگ مورد استفاده برای شناسایی دیپفیکها به اندازه کافی سریع پیشرفت نکردهاند. در حال حاضر، شرکت ها به سادگی در مورد آنچه که مجموعه ای از استانداردهای فنی و مکانیسم های تشخیص را تشکیل می دهد، توافق می کنند.
آنها راه درازی در پیش دارند تا به طور موثر با این مشکل برخورد کنند که لایه های زیادی دارد. به عنوان مثال، سرویسهایی که ادعا میکنند متن تولید شده با هوش مصنوعی را شناسایی میکنند، مانند مقالهها، نسبت به غیر انگلیسیزبانها تعصب نشان میدهند. و برای تصاویر و ویدیوها خیلی راحت تر نمی شود.
حتی اگر پلتفرمهای پشت تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی با استفاده از مواردی مانند واترمارک نامرئی و انواع خاصی از ابرداده موافقت کنند، راههایی برای دور زدن این حفاظتها وجود دارد. گرفتن اسکرین شات حتی گاهی اوقات می تواند آشکارساز را فریب دهد.
همچنین، سیگنالهای نامرئی که برخی از شرکتها در تصاویر تولید شده با هوش مصنوعی گنجاندهاند، هنوز به بسیاری از تولیدکنندگان صوتی و تصویری نرسیدهاند.
خبر این توافق یک روز پس از آن منتشر شد که سازنده ChatGPT OpenAI، Sora، مدل جدید خود را برای ویدیوهای تولید شده توسط هوش مصنوعی معرفی کرد. Sora مشابه ابزار تصویربرداری هوش مصنوعی OpenAI، DALL-E عمل می کند. کاربر وارد صحنه مورد نظر می شود و Sora یک ویدیو با کیفیت بالا برمی گرداند. Sora همچنین میتواند ویدیوهایی با الهام از تصاویر ثابت تولید کند و ویدیوهای موجود را گسترش دهد یا فیلمهای از دست رفته را پر کند.
شرکتهای شرکتکننده در توافق با هشت تعهد سطح بالا، از جمله ارزیابی ریسکهای مدل «بهدنبال شناسایی» و رسیدگی به توزیع چنین محتوایی در پلتفرمهای خود و شفافسازی این فرآیندها برای عموم موافقت کردند. مانند بسیاری از تعهدات داوطلبانه در صنعت فناوری و فراتر از آن، این اطلاعیه تصریح میکند که این تعهدات فقط «در مواردی که برای خدمات ارائهشده توسط هر شرکت مناسب باشد» اعمال میشود.
کنت واکر، رئیس امور جهانی گوگل، در بیانیه ای گفت: «دموکراسی بر پایه انتخابات ایمن و ایمن بنا شده است. او گفت که این توافق نشان دهنده تلاش های صنعت برای رسیدگی به “اطلاعات نادرست انتخاباتی ایجاد شده توسط هوش مصنوعی است که اعتماد را تضعیف می کند.”
کریستینا مونتگومری، مسئول حریم خصوصی و اعتماد IBM، در این انتشار گفت که در این سال انتخاباتی کلیدی، “اقدامات مشارکتی مشخصی برای محافظت از مردم و جوامع در برابر افزایش خطرات محتوای تقلبی تولید شده توسط هوش مصنوعی مورد نیاز است.”
تماشا کردن: OpenAI از Sora رونمایی کرد