تکنولوژی

فراخوان رباتیک بایدن: صدایی عمیقاً به ترس از اطلاعات نادرست انتخابات دامن می زند

رقابت سال 2024 برای کاخ سفید با چشم انداز موجی از اطلاعات نادرست مبتنی بر هوش مصنوعی مواجه است، به طوری که یک تماس رباتیک با جعل هویت رئیس جمهور ایالات متحده، جو بایدن، نگرانی های خاصی را در مورد جعل صوتی عمیق ایجاد کرده است.

در پیام تلفنی که به صورت دیجیتالی صدای بایدن را جعل می‌کرد و یکی از عبارات مهم او را تکرار می‌کرد، می‌خواند: «چه مزخرفی».

این فراخوان رباتیک از ساکنان نیوهمپشایر خواسته بود در انتخابات مقدماتی دموکرات ها در ماه گذشته رای ندهند و مقامات ایالتی را بر آن داشت تا تحقیقاتی را درباره سرکوب احتمالی رای دهندگان آغاز کنند.

همچنین درخواست‌هایی را از طرف مبارزان برای تدابیر شدیدتر در مورد ابزارهای هوش مصنوعی مولد یا ممنوعیت کامل تماس‌های رباتیک برانگیخته است.

محققان اطلاعات نادرست از سوء استفاده گسترده از برنامه های مبتنی بر هوش مصنوعی در یک سال مهم انتخاباتی به دلیل گسترش ابزارهای شبیه سازی صدا که ارزان و آسان برای استفاده هستند و ردیابی آنها دشوار است، بیم دارند.

ویجی بالاسوبرامانیان، مدیرعامل و یکی از بنیانگذاران شرکت امنیت سایبری پیندروپ، به خبرگزاری فرانسه گفت: «این مطمئناً نوک کوه یخ است.

ما می‌توانیم انتظار داشته باشیم که در این چرخه انتخابات شاهد تقلب عمیق‌تر باشیم.»

تجزیه و تحلیل دقیق منتشر شده توسط Pindrop نشان می دهد که یک سیستم تبدیل متن به گفتار توسعه یافته توسط استارتاپ شبیه سازی صدا با هوش مصنوعی ElevenLabs برای ایجاد تماس رباتیک بایدن استفاده شده است.

این رسوایی زمانی رخ داد که فعالان در هر دو طرف حوزه سیاسی در ایالات متحده از ابزارهای هوش مصنوعی پیشرفته برای پیام‌رسانی موثر کمپین استفاده می‌کنند و سرمایه‌گذاران فناوری میلیون‌ها دلار برای استارت‌آپ‌های شبیه‌سازی صدا می‌ریزند.

مطلب پیشنهادی:  PM Modi از کاغذ ویژن Bharat 6G رونمایی کرد. سرعت 1000 برابر سریعتر از 5G باشد

بالاسوبرامانیان از گفتن اینکه آیا پیندروپ یافته‌های خود را با ElevenLabs به اشتراک گذاشته است یا نه، که ماه گذشته یک دور سرمایه‌گذاری از سوی سرمایه‌گذاران را اعلام کرد که طبق اخبار بلومبرگ، ارزش شرکت را ۱.۱ میلیارد دلار اعلام کرد، خودداری کرد.

ElevenLabs به درخواست های مکرر AFP برای اظهار نظر پاسخ نداد. وب‌سایت آن کاربران را به یک تولیدکننده متن به گفتار رایگان راهنمایی می‌کند تا «فوراً صداهای طبیعی هوش مصنوعی را به هر زبانی ایجاد کند».

طبق دستورالعمل‌های ایمنی خود، این شرکت گفت که کاربران مجازند بدون اجازه از شخصیت‌های سیاسی مانند دونالد ترامپ شبیه‌سازی‌های صوتی ایجاد کنند، در صورتی که آنها «طنز یا تمسخر» را به گونه‌ای بیان کنند که «برای شنونده روشن شود که آنچه می‌شنوند، یک محتوای تقلید آمیز، نه معتبر.”

“آشوب انتخاباتی”

تنظیم‌کننده‌های ایالات متحده در حال بررسی غیرقانونی کردن تماس‌های تولید شده توسط هوش مصنوعی هستند، در حالی که تماس جعلی بایدن انگیزه جدیدی به این تلاش می‌دهد.

رابرت وایزمن، رئیس گروه حمایت از شهروندان عمومی، گفت: «لحظه عمیق دروغین سیاسی اینجاست.

سیاستمداران باید برای معرفی حمایت عجله کنند وگرنه با هرج و مرج انتخاباتی مواجه خواهیم شد. دیپ فیک نیوهمپشایر یادآور راه های بسیاری است که دیپ فیک می تواند باعث سردرگمی شود.

محققان در مورد تأثیر ابزارهای هوش مصنوعی که ویدیوها و متن‌هایی را به ظاهر واقعی می‌سازند، نگران هستند که رای‌دهندگان ممکن است در تشخیص حقیقت از تخیلی تلاش کنند و اعتماد به فرآیند انتخابات را تضعیف کند.

مطلب پیشنهادی:  Elon Musk's X به نوبه خود، عناوین را به پیوندهای مقاله اضافه می کند! اما ممکن است آن را دوست نداشته باشید. تنظیمات جدید را ببینید

اما کلاهبرداری های صوتی که برای جعل هویت یا بدنام کردن افراد مشهور و سیاستمداران در سراسر جهان استفاده می شود، بیشترین نگرانی را ایجاد کرده است.

تیم هارپر، تحلیلگر ارشد سیاست در مرکز دموکراسی و فناوری، به خبرگزاری فرانسه گفت: «در بین تمام سطوح – ویدیو، تصاویر، صدا – که هوش مصنوعی می‌تواند برای سرکوب رأی دهندگان استفاده کند، صدا بزرگترین آسیب‌پذیری است.

شبیه سازی صدا با استفاده از هوش مصنوعی آسان است و شناسایی آن سخت است.

“صداقت در انتخابات”

وسیم خالد، مدیر اجرایی Blackbird.AI، به خبرگزاری فرانسه گفت: سهولت ایجاد و توزیع محتوای صوتی جعلی، یک چشم‌انداز سیاسی بیش از حد قطبی شده را پیچیده می‌کند، اعتماد به رسانه‌ها را تضعیف می‌کند و به هر کسی اجازه می‌دهد ادعا کند «شواهد ساختگی» مبتنی بر واقعیت است.

چنین نگرانی‌هایی به دلیل اینکه گسترش ابزارهای صوتی هوش مصنوعی از نرم‌افزار تشخیص پیشی گرفته است، گسترده است.

ByteDance چین، صاحب پلتفرم بسیار محبوب TikTok، اخیرا StreamVoice را معرفی کرده است، ابزار هوش مصنوعی برای تبدیل بلادرنگ صدای کاربر به هر جایگزین دلخواه.

بالاسوبرامانیان گفت: «اگرچه مهاجمان این بار از ElevenLabs استفاده کردند، اما احتمالاً در حملات آینده یک سیستم هوش مصنوعی مولد متفاوت خواهد بود.

وجود تدابیر کافی در این ابزارها ضروری است.

بالاسوبرامانیان و سایر محققان توصیه می‌کنند که واترمارک‌های صوتی یا امضای دیجیتال را به عنوان ابزارهای حفاظتی ممکن، و همچنین مقرراتی که آنها را فقط برای کاربران تأیید شده در دسترس قرار می‌دهد، قرار دهند.

هارپر گفت: “حتی با این اقدامات، تشخیص اینکه چه زمانی از این ابزارها برای تولید محتوای مضر استفاده می شود که شرایط خدمات شما را نقض می کند واقعا دشوار و واقعاً گران است.”

مطلب پیشنهادی:  تلسکوپ هابل سحابی خرچنگ را که خانه تپ اختری است که 30 بار در ثانیه چشمک می زند! ناسا توضیح می دهد

“(این) مستلزم سرمایه گذاری در اعتماد و ایمنی و تعهد برای ایجاد یکپارچگی انتخاباتی به عنوان محور خطر است.”

این داستان های برتر را امروز نیز بخوانید:

آیا مشکل Neuralink ایلان ماسک تمام شده است؟ خب، چالش‌های پیش روی Neuralink هنوز به پایان نرسیده است. کاشت یک دستگاه در یک فرد تنها آغاز یک پروژه بالینی چندین دهه است که مملو از رقبا، موانع مالی و معضلات اخلاقی است. همه چیز در مورد آن را اینجا بخوانید. جالب بود؟ ادامه دهید و آن را با همه کسانی که می شناسید به اشتراک بگذارید.

مجرمان سایبری در حال انجام کلاهبرداری ویدئویی Deepfake هستند! پلیس هنگ کنگ روز یکشنبه اعلام کرد که در یکی از اولین موارد در نوع خود در این شهر، کلاهبرداران با ظاهر شدن به عنوان مدیران ارشد با استفاده از فناوری عمیق جعلی، از یک شرکت چندملیتی حدود 26 میلیون دلار کلاهبرداری کردند. در اینجا بیابید که چگونه این کار را انجام دادند. اگر از خواندن این مقاله لذت بردید، لطفا آن را برای دوستان و خانواده خود ارسال کنید.

مارک زاکربرگ موسس فیس بوک از خانواده های کودکانی که به صورت آنلاین مورد سوء استفاده قرار گرفته اند عذرخواهی کرده است. اما این کافی نیست. در اینجا چیزی است که قانونگذاران ایالات متحده باید اکنون شرکت های رسانه های اجتماعی را مجبور به انجام آن کنند. اینجا شیرجه بزنید

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا