تماس ویدیویی Deepfake کلاهبرداری شرکت جهانی به قیمت 26 میلیون دلار. ویدیوهای یوتیوب استفاده شده: SCMP
پلیس هنگ کنگ روز یکشنبه اعلام کرد که در یکی از اولین موارد در نوع خود در این شهر، کلاهبرداران با ظاهر شدن به عنوان مدیران ارشد با استفاده از فناوری عمیق جعلی، از یک شرکت چندملیتی حدود 26 میلیون دلار کلاهبرداری کردند.
سازمانهای مجری قانون در تلاش هستند تا با هوش مصنوعی مولد مقابله کنند، هوش مصنوعی که کارشناسان میگویند پتانسیل اطلاعات نادرست و سوءاستفاده را دارد – مانند تصاویر جعلی عمیق که نشان میدهد مردم چیزهایی را میگویند که هرگز نگفتهاند.
پلیس به خبرگزاری فرانسه گفت که یکی از کارمندان شرکت در مرکز مالی چین “تماس های ویدئو کنفرانسی را از فردی که خود را به عنوان مقامات ارشد شرکت معرفی می کرد، دریافت کرد که از آنها درخواست انتقال پول به حساب های بانکی خاص را داشتند.”
پلیس گزارشی از این حادثه را در 29 ژانویه دریافت کرد که در آن زمان حدود 200 میلیون دلار هنگ کنگ (26 میلیون دلار) از طریق 15 انتقال از دست رفته بود.
پلیس بدون نام بردن از این شرکت گفت: “تحقیقات همچنان ادامه دارد و تاکنون هیچ فردی دستگیر نشده است.”
ما در کانال های واتس اپ هستیم. برای عضویت کلیک کنید
طبق گزارش رسانه ها در هنگ کنگ، قربانی در بخش مالی کار می کرد و کلاهبرداران به عنوان مدیر ارشد مالی شرکت مستقر در بریتانیا ظاهر شدند.
سرپرست سرپرست ارشد، بارون چان گفت که تماس ویدئویی کنفرانس شامل چندین شرکت کننده بود، اما همه به جز قربانی جعل هویت شدند.
چان به خبرنگاران گفت: «کلاهبرداران ویدیو و صوت در دسترس عموم از اهداف جعل هویت را از طریق یوتیوب پیدا کردند، سپس از فناوری دیپفیک برای تقلید صدای آنها استفاده کردند… تا قربانی را به دنبال دستورالعملهای خود بکشانند.»
وی افزود که ویدئوهای دیپ فیک از قبل ضبط شده بودند و شامل گفتگو یا تعامل با قربانی نبودند.
آنچه باید در مورد نحوه برخورد قانونگذاران با جعلیات عمیق مانند تیلور سویفت بدانید
(سرگرمی AP)
حتی قبل از اینکه تصاویر مستهجن و خشونت آمیز عمیق جعلی تیلور سوئیفت در چند روز گذشته به طور گسترده منتشر شود، قانونگذاران ایالتی در سراسر ایالات متحده به دنبال راه هایی برای سرکوب چنین تصاویر غیر توافقی از بزرگسالان و کودکان بودند.
اما در این دوره تیلور محور، از زمانی که او از طریق تصاویر جعلی عمیق مورد حمله قرار گرفت، این موضوع بسیار بیشتر مورد توجه قرار گرفت، تصاویری که توسط کامپیوتر تولید شده بودند و از هوش مصنوعی برای واقعی به نظر رسیدن استفاده می کردند.
در اینجا آنچه شما باید در مورد کارهایی که ایالت ها انجام داده اند و آنچه را که در نظر دارند بدانید، آورده شده است.
جایی که DEEPFAKES نشان داده می شود
هوش مصنوعی سال گذشته بدون هیچوقت وارد جریان اصلی شد و به مردم این امکان را داد که تقلبیهای عمیق و واقعی بسازند. در حال حاضر آنها بیشتر به صورت آنلاین به اشکال مختلف ظاهر می شوند.
پورنوگرافی وجود دارد – استفاده از افراد مشهور مانند سوئیفت برای ایجاد تصاویر تقلبی.
موسیقی وجود دارد – آهنگی که شبیه Drake و The Weeknd بود که با هم اجرا کردند میلیونها بازدید از سرویسهای استریم دریافت کرد – اما این هنرمندان نبودند. این آهنگ از روی سکوها حذف شد.
و حقههای کثیف سیاسی در این سال انتخابات وجود دارد – درست قبل از انتخابات مقدماتی ریاستجمهوری ژانویه، برخی از رایدهندگان در نیوهمپشایر گزارش دادند که تماسهای خودکاری دریافت کردهاند که ظاهراً از طرف رئیسجمهور جو بایدن بوده است که به آنها گفته بود که برای رای دادن زحمت نکشند. دادستانی در حال تحقیق است.
اما یک مورد رایج تر، پورنوگرافی با استفاده از شباهت افراد ناشناس، از جمله افراد زیر سن قانونی است.
اقداماتی که دولت ها تاکنون انجام داده اند
دیپفیکها تنها یک حوزه در قلمرو پیچیده هوش مصنوعی هستند که قانونگذاران در تلاش هستند تا دریابند که آیا و چگونه با آن مقابله کنند.
حداقل 10 کشور قبلاً قوانین عمیق جعل را وضع کرده اند. ده ها اقدام دیگر در سال جاری در مجالس قانونگذاری در سراسر کشور در نظر گرفته شده است.
جورجیا، هاوایی، تگزاس و ویرجینیا قوانینی در مورد این کتاب ها دارند که عمیقاً بدون رضایت، پورنو جعلی را جرم انگاری می کند.
کالیفرنیا و ایلینویز به قربانیان این حق را داده اند که از کسانی که تصاویری را با استفاده از شباهت خود ایجاد می کنند شکایت کنند.
مینه سوتا و نیویورک هر دو را انجام می دهند. قانون مینه سوتا همچنین استفاده از دیپ فیک را در سیاست هدف قرار می دهد.
آیا راه حل های فنی وجود دارد؟
شیوی لیو، استاد علوم کامپیوتر دانشگاه بوفالو، گفت که چندین رویکرد در حال کار است که هیچ کدام کامل نیستند.
یکی از آنها الگوریتمهای تشخیص دیپفیک است که میتواند برای پرچمگذاری دیپفیک در مکانهایی مانند پلتفرمهای رسانههای اجتماعی استفاده شود.
یکی دیگر – که لو گفت در حال توسعه است اما هنوز به طور گسترده مورد استفاده قرار نگرفته است – تعبیه کدهایی در محتوایی است که افراد آپلود می کنند که در صورت استفاده مجدد در ایجاد هوش مصنوعی پرچم گذاری می شود.
و مکانیسم سوم این است که شرکتهایی را که ابزارهای هوش مصنوعی ارائه میدهند ملزم میکنند که واترمارکهای دیجیتالی را برای شناسایی محتوای تولید شده با برنامههایشان بگنجانند.
او گفت منطقی است که این شرکتها باید در مورد نحوه استفاده مردم از ابزارشان پاسخگو باشند و شرکتها به نوبه خود میتوانند توافقنامههای کاربر را در برابر ایجاد دیپفیک مشکلساز اجرا کنند.
در یک قانون چه چیزی باید باشد؟
قانون مدل پیشنهاد شده توسط شورای تبادل قانونگذاری آمریکا در مورد پورن است، نه سیاست. این گروه سیاسی محافظهکار و طرفدار تجارت، دولتها را به انجام دو کار تشویق میکند: جرمانگاری داشتن و توزیع تصاویر جعلی عمیق که کودکان خردسال را در حال اعمال جنسی نشان میدهند، و اجازه دادن به قربانیان برای شکایت از افرادی که تصاویر جعلی عمیق را که نشان دهنده رفتار جنسی بدون رضایت است، توزیع میکنند.
جیک مورابیتو، رئیس کارگروه ارتباطات و فناوری ALEC گفت: «من توصیه میکنم قانونگذاران با یک راه حل کوچک و تجویزی که میتواند یک مشکل ملموس را حل کند، شروع کنند. او هشدار میدهد که قانونگذاران نباید فناوریهایی را هدف قرار دهند که میتوان از آن برای ایجاد تقلبهای عمیق استفاده کرد، زیرا این امر میتواند نوآوری را با کاربردهای مهم دیگر خفه کند.
تاد هلموس، دانشمند علوم رفتاری در RAND، یک اندیشکده غیرحزبی، اشاره می کند که سپردن اجرای قانون به افرادی که شکایت می کنند کافی نیست. او گفت که برای پیگرد قانونی نیاز به منابع است. و نتیجه ممکن است ارزش آن را نداشته باشد. او گفت: ارزش ندارد از کسی که پولی برای دادن به شما ندارد شکایت کنید.
هلموس خواستار نردههای محافظ در سراسر سیستم است و میگوید که احتمالاً دخالت دولت برای کار آنها ضروری است.
او گفت OpenAI و سایر شرکتهایی که از پلتفرمهایشان میتوان برای تولید محتوای به ظاهر واقعی استفاده کرد، باید تلاش کنند تا از ایجاد دیپفیک جلوگیری کنند. شرکتهای رسانههای اجتماعی باید سیستمهای بهتری را برای جلوگیری از به اشتراک گذاشتن آن ایجاد کنند و باید عواقب قانونی برای کسانی که این کار را انجام میدهند وجود داشته باشد.
جنا لونتوف، یک وکیل اصلاحیه اول در ACLU، گفت که اگرچه دیپفیکها میتوانند باعث آسیب شوند، حمایتهای آزادی بیان نیز در مورد آنها اعمال میشود، و قانونگذاران باید مطمئن شوند که از استثناهای موجود آزادی بیان، مانند افترا. تقلب و فحاشی در زمانی که تلاش برای تنظیم فناوری های نوظهور
هفته گذشته، کارین ژان پیر، سخنگوی کاخ سفید به این موضوع پرداخت و گفت که شرکت های رسانه های اجتماعی باید قوانین خود را ایجاد و اجرا کنند تا از انتشار اطلاعات نادرست و تصاویری مانند سوئیفت جلوگیری کنند.
چه چیزی در پیشنهاد است؟
یک گروه دو حزبی از اعضای کنگره در ماه ژانویه قانونی فدرال را معرفی کردند که به مردم اجازه میدهد تا شباهت و صدای خودشان را داشته باشند – و این امکان را دارند که از کسانی که به هر دلیلی از آن استفاده گمراهکننده از طریق دیپ فیک استفاده میکنند، شکایت کنند.
بسیاری از ایالت ها در جلسات امسال خود نوعی قانون عمیقاً جعلی را در نظر می گیرند. آنها توسط دموکرات ها، جمهوری خواهان و ائتلاف های دو حزبی قانونگذاران معرفی می شوند.
لایحههایی که مورد توجه قرار میگیرند شامل مواردی است که توزیع یا ایجاد تصاویر جنسی صریح از یک فرد بدون رضایت آنها در ایندیانای تحت سلطه حزب جمهوریخواه جرم محسوب میشود. این مجلس در ژانویه به اتفاق آرا به تصویب رسید.
اقدام مشابهی که این هفته در میسوری معرفی شد «قانون تیلور سویفت» نام دارد. و دیگری این هفته در داکوتای جنوبی از مجلس سنا تبرئه شد، جایی که مارتی جکلی، دادستان کل گفت که برخی از تحقیقات به مقامات فدرال واگذار شده است زیرا این ایالت فاقد قوانین مرتبط با هوش مصنوعی لازم برای طرح اتهام است.
جکلی گفت: «وقتی وارد صفحه فیسبوک شخصی میشوید، فرزندش را میدزدید و آن را در هرزهنگاری قرار میدهید، هیچ قانون اصلاحیه اول حق این کار را ندارد.
یک مرد چه کاری می تواند انجام دهد؟
برای هر کسی که حضور آنلاین دارد، جلوگیری از قربانی شدن یک دیپ فیک می تواند دشوار باشد.
اما Helmus از RAND میگوید افرادی که متوجه میشوند مورد هدف قرار گرفتهاند میتوانند از یک پلتفرم رسانه اجتماعی که در آن تصاویر به اشتراک گذاشته شده است بخواهند آنها را حذف کند. اگر در یک محل قانونی هستید به پلیس اطلاع دهید. به مسئولان مدرسه یا دانشگاه بگویید اگر عامل مورد ادعا دانش آموز است. و در صورت نیاز از سلامت روان کمک بگیرید.