فراخوان رباتیک بایدن: صدایی عمیقاً به ترس از اطلاعات نادرست انتخابات دامن می زند
رقابت سال 2024 برای کاخ سفید با چشم انداز موجی از اطلاعات نادرست مبتنی بر هوش مصنوعی مواجه است، به طوری که یک تماس رباتیک با جعل هویت رئیس جمهور ایالات متحده، جو بایدن، نگرانی های خاصی را در مورد جعل صوتی عمیق ایجاد کرده است.
در پیام تلفنی که به صورت دیجیتالی صدای بایدن را جعل میکرد و یکی از عبارات مهم او را تکرار میکرد، میخواند: «چه مزخرفی».
این فراخوان رباتیک از ساکنان نیوهمپشایر خواسته بود در انتخابات مقدماتی دموکرات ها در ماه گذشته رای ندهند و مقامات ایالتی را بر آن داشت تا تحقیقاتی را درباره سرکوب احتمالی رای دهندگان آغاز کنند.
همچنین درخواستهایی را از طرف مبارزان برای تدابیر شدیدتر در مورد ابزارهای هوش مصنوعی مولد یا ممنوعیت کامل تماسهای رباتیک برانگیخته است.
محققان اطلاعات نادرست از سوء استفاده گسترده از برنامه های مبتنی بر هوش مصنوعی در یک سال مهم انتخاباتی به دلیل گسترش ابزارهای شبیه سازی صدا که ارزان و آسان برای استفاده هستند و ردیابی آنها دشوار است، بیم دارند.
ویجی بالاسوبرامانیان، مدیرعامل و یکی از بنیانگذاران شرکت امنیت سایبری پیندروپ، به خبرگزاری فرانسه گفت: «این مطمئناً نوک کوه یخ است.
ما میتوانیم انتظار داشته باشیم که در این چرخه انتخابات شاهد تقلب عمیقتر باشیم.»
تجزیه و تحلیل دقیق منتشر شده توسط Pindrop نشان می دهد که یک سیستم تبدیل متن به گفتار توسعه یافته توسط استارتاپ شبیه سازی صدا با هوش مصنوعی ElevenLabs برای ایجاد تماس رباتیک بایدن استفاده شده است.
این رسوایی زمانی رخ داد که فعالان در هر دو طرف حوزه سیاسی در ایالات متحده از ابزارهای هوش مصنوعی پیشرفته برای پیامرسانی موثر کمپین استفاده میکنند و سرمایهگذاران فناوری میلیونها دلار برای استارتآپهای شبیهسازی صدا میریزند.
بالاسوبرامانیان از گفتن اینکه آیا پیندروپ یافتههای خود را با ElevenLabs به اشتراک گذاشته است یا نه، که ماه گذشته یک دور سرمایهگذاری از سوی سرمایهگذاران را اعلام کرد که طبق اخبار بلومبرگ، ارزش شرکت را ۱.۱ میلیارد دلار اعلام کرد، خودداری کرد.
ElevenLabs به درخواست های مکرر AFP برای اظهار نظر پاسخ نداد. وبسایت آن کاربران را به یک تولیدکننده متن به گفتار رایگان راهنمایی میکند تا «فوراً صداهای طبیعی هوش مصنوعی را به هر زبانی ایجاد کند».
طبق دستورالعملهای ایمنی خود، این شرکت گفت که کاربران مجازند بدون اجازه از شخصیتهای سیاسی مانند دونالد ترامپ شبیهسازیهای صوتی ایجاد کنند، در صورتی که آنها «طنز یا تمسخر» را به گونهای بیان کنند که «برای شنونده روشن شود که آنچه میشنوند، یک محتوای تقلید آمیز، نه معتبر.”
“آشوب انتخاباتی”
تنظیمکنندههای ایالات متحده در حال بررسی غیرقانونی کردن تماسهای تولید شده توسط هوش مصنوعی هستند، در حالی که تماس جعلی بایدن انگیزه جدیدی به این تلاش میدهد.
رابرت وایزمن، رئیس گروه حمایت از شهروندان عمومی، گفت: «لحظه عمیق دروغین سیاسی اینجاست.
سیاستمداران باید برای معرفی حمایت عجله کنند وگرنه با هرج و مرج انتخاباتی مواجه خواهیم شد. دیپ فیک نیوهمپشایر یادآور راه های بسیاری است که دیپ فیک می تواند باعث سردرگمی شود.
محققان در مورد تأثیر ابزارهای هوش مصنوعی که ویدیوها و متنهایی را به ظاهر واقعی میسازند، نگران هستند که رایدهندگان ممکن است در تشخیص حقیقت از تخیلی تلاش کنند و اعتماد به فرآیند انتخابات را تضعیف کند.
اما کلاهبرداری های صوتی که برای جعل هویت یا بدنام کردن افراد مشهور و سیاستمداران در سراسر جهان استفاده می شود، بیشترین نگرانی را ایجاد کرده است.
تیم هارپر، تحلیلگر ارشد سیاست در مرکز دموکراسی و فناوری، به خبرگزاری فرانسه گفت: «در بین تمام سطوح – ویدیو، تصاویر، صدا – که هوش مصنوعی میتواند برای سرکوب رأی دهندگان استفاده کند، صدا بزرگترین آسیبپذیری است.
شبیه سازی صدا با استفاده از هوش مصنوعی آسان است و شناسایی آن سخت است.
“صداقت در انتخابات”
وسیم خالد، مدیر اجرایی Blackbird.AI، به خبرگزاری فرانسه گفت: سهولت ایجاد و توزیع محتوای صوتی جعلی، یک چشمانداز سیاسی بیش از حد قطبی شده را پیچیده میکند، اعتماد به رسانهها را تضعیف میکند و به هر کسی اجازه میدهد ادعا کند «شواهد ساختگی» مبتنی بر واقعیت است.
چنین نگرانیهایی به دلیل اینکه گسترش ابزارهای صوتی هوش مصنوعی از نرمافزار تشخیص پیشی گرفته است، گسترده است.
ByteDance چین، صاحب پلتفرم بسیار محبوب TikTok، اخیرا StreamVoice را معرفی کرده است، ابزار هوش مصنوعی برای تبدیل بلادرنگ صدای کاربر به هر جایگزین دلخواه.
بالاسوبرامانیان گفت: «اگرچه مهاجمان این بار از ElevenLabs استفاده کردند، اما احتمالاً در حملات آینده یک سیستم هوش مصنوعی مولد متفاوت خواهد بود.
وجود تدابیر کافی در این ابزارها ضروری است.
بالاسوبرامانیان و سایر محققان توصیه میکنند که واترمارکهای صوتی یا امضای دیجیتال را به عنوان ابزارهای حفاظتی ممکن، و همچنین مقرراتی که آنها را فقط برای کاربران تأیید شده در دسترس قرار میدهد، قرار دهند.
هارپر گفت: “حتی با این اقدامات، تشخیص اینکه چه زمانی از این ابزارها برای تولید محتوای مضر استفاده می شود که شرایط خدمات شما را نقض می کند واقعا دشوار و واقعاً گران است.”
“(این) مستلزم سرمایه گذاری در اعتماد و ایمنی و تعهد برای ایجاد یکپارچگی انتخاباتی به عنوان محور خطر است.”
این داستان های برتر را امروز نیز بخوانید:
آیا مشکل Neuralink ایلان ماسک تمام شده است؟ خب، چالشهای پیش روی Neuralink هنوز به پایان نرسیده است. کاشت یک دستگاه در یک فرد تنها آغاز یک پروژه بالینی چندین دهه است که مملو از رقبا، موانع مالی و معضلات اخلاقی است. همه چیز در مورد آن را اینجا بخوانید. جالب بود؟ ادامه دهید و آن را با همه کسانی که می شناسید به اشتراک بگذارید.
مجرمان سایبری در حال انجام کلاهبرداری ویدئویی Deepfake هستند! پلیس هنگ کنگ روز یکشنبه اعلام کرد که در یکی از اولین موارد در نوع خود در این شهر، کلاهبرداران با ظاهر شدن به عنوان مدیران ارشد با استفاده از فناوری عمیق جعلی، از یک شرکت چندملیتی حدود 26 میلیون دلار کلاهبرداری کردند. در اینجا بیابید که چگونه این کار را انجام دادند. اگر از خواندن این مقاله لذت بردید، لطفا آن را برای دوستان و خانواده خود ارسال کنید.
مارک زاکربرگ موسس فیس بوک از خانواده های کودکانی که به صورت آنلاین مورد سوء استفاده قرار گرفته اند عذرخواهی کرده است. اما این کافی نیست. در اینجا چیزی است که قانونگذاران ایالات متحده باید اکنون شرکت های رسانه های اجتماعی را مجبور به انجام آن کنند. اینجا شیرجه بزنید