تکنولوژی

Deepfake Detection گوشه‌ای از فناوری هوش مصنوعی است که در حال پیشرفت نیست

هوش مصنوعی اکنون آنقدر قدرتمند است که می تواند مردم را فریب دهد تا تصور کنند تصویر پاپ فرانسیس با کت سفید Balenciaga واقعی است، اما ابزارهای دیجیتالی برای شناسایی قابل اعتماد تصاویر جعلی در تلاش هستند تا با سرعت تولید محتوا همگام شوند.

کافی است از محققان دانشکده فناوری اطلاعات دانشگاه دیکین، خارج از ملبورن بپرسید. بر اساس شاخص هوش مصنوعی 2023 دانشگاه استنفورد، الگوریتم آنها در شناسایی تصاویر تغییر یافته افراد مشهور در مجموعه ای از به اصطلاح دیپ فیک ها در سال گذشته بهترین عملکرد را داشت.

چانگ تسونگ لی، استاد مرکز مقاومت و اعتماد سایبری دیکین، که الگوریتم را توسعه داده است، گفت: «این یک عملکرد بسیار خوب است.» اما این فناوری واقعاً هنوز در حال توسعه است.» لی گفت این روش قبل از اینکه برای استفاده تجاری آماده شود باید بیشتر بهبود یابد.

دیپ فیک سال هاست که وجود داشته و باعث نگرانی شده است. به نظر می رسد نانسی پلوسی رئیس سابق مجلس نمایندگان در سال 2019 در یک ویدیوی جعلی صحبت می کند که به طور گسترده در رسانه های اجتماعی منتشر شده است. متا پلتفرم شرکت حدود یک ماه بعد، مارک زاکربرگ، مدیر عامل شرکت، در ویدئویی دیده شد که به نظر می‌رسد چیزی گفته است که او نگفته است، زیرا فیس‌بوک قبلاً از حذف ویدیوی پلوسی خودداری کرده بود.

اگرچه تصویر پاپ در کرک یک دستکاری نسبتاً بی ضرر بود، اما با پیشرفت تکنولوژی، احتمال آسیب جدی ناشی از جعلیات عمیق، از دستکاری انتخابات تا اعمال جنسی، افزایش یافته است. سال گذشته، یک ویدیوی جعلی از ولودیمیر زلنسکی، رئیس جمهور اوکراین که از سربازانش خواسته بود خود را به روسیه تسلیم کنند، می توانست عواقب جدی داشته باشد.

مطلب پیشنهادی:  ایلان ماسک قبل از انتخابات به انجمن کاربران هندی X یادداشت می دهد - چیست و چرا مهم است

شرکت‌های بزرگ فناوری، و همچنین موجی از استارت‌آپ‌ها، ده‌ها میلیارد دلار برای هوش مصنوعی مولد سرمایه‌گذاری کرده‌اند تا ادعا کنند رهبری در فناوری را دارند که می‌تواند چهره همه چیز را از موتورهای جستجو گرفته تا بازی‌های ویدیویی تغییر دهد. با این حال، بازار جهانی فناوری برای ریشه‌کن کردن محتوای دستکاری شده نسبتاً کوچک است. به گفته شرکت تحقیقاتی HSRC، ارزش بازار جهانی کشف تقلب در عمق 3.86 میلیارد دلار در سال 2020 بود و انتظار می‌رود تا سال 2026 با CAGR 42 درصد افزایش یابد.

Claire Leibovitch، رئیس برنامه هوش مصنوعی و یکپارچگی رسانه در موسسه غیرانتفاعی The Partnership on AI، گفت: کارشناسان موافق هستند که توجه زیادی به تولید هوش مصنوعی می شود و برای کشف آن کافی نیست.

در حالی که هیاهوی پیرامون این فناوری که تحت سلطه برنامه هایی مانند ChatGPT OpenAI است، به اوج خود رسیده است، مدیران اجرایی تسلا، مدیرعامل شرکت تسلا ایلان ماسک به مدیرعاملی شرکت آلفابت ساندار پیچای نسبت به خطرات تند رفتن هشدار داد.

مدتی طول می کشد تا ابزارهای تشخیص برای مبارزه با موج تصاویر تغییر یافته با ظاهر واقعی از برنامه های هوش مصنوعی تولیدی مانند Midjourney که تصویر Pope را ایجاد کرده است و DALL-E OpenAI مورد استفاده قرار گیرند. بخشی از مشکل هزینه بسیار بالای توسعه تشخیص دقیق است و انگیزه قانونی یا مالی کمی برای انجام این کار وجود دارد.

جف پولارد، تحلیلگر موسسه تحقیقاتی Forrester می گوید: من هر روز با مدیران امنیتی صحبت می کنم. «آنها نگران هوش مصنوعی مولد هستند. اما وقتی صحبت از چیزی مانند تشخیص جعلی عمیق به میان می آید، این چیزی نیست که آنها بودجه ای را صرف آن کنند. خیلی مشکلات دیگه هم دارن

مطلب پیشنهادی:  سیارک 1600 فوتی به شکل عجیب و غریب به بزرگی ساختمان امپایر استیت که توسط ناسا ردیابی شده است.

با این حال، تعداد انگشت شماری از استارتاپ‌ها مانند Sensity AI مستقر در هلند و Sentinel مستقر در استونی، مانند بسیاری از شرکت‌های بزرگ فناوری، در حال توسعه فناوری برای شناسایی عمیق تقلب هستند. شرکت اینتل محصول FakeCatcher خود را در نوامبر گذشته به عنوان بخشی از کار خود در زمینه هوش مصنوعی مسئول منتشر کرد. به گفته این شرکت، این فناوری با ارزیابی ویژگی‌های انسانی مانند جریان خون در پیکسل‌های ویدئویی، به دنبال سرنخ‌های معتبر در ویدیوهای واقعی می‌گردد و به گفته این شرکت، می‌تواند تقلبی‌ها را با دقت ۹۶ درصد تشخیص دهد.

انگیزه کشف تقلبی های عمیق اکنون پول نیست. ایلکه دمیر، دانشمند ارشد تحقیقاتی در اینتل گفت: این به کاهش اطلاعات نادرست آنلاین کمک می کند.

تاکنون، استارت‌آپ‌های شناسایی تقلبی عمیق عمدتاً به دولت‌ها و کسب‌وکارهایی که به دنبال کاهش تقلب هستند، خدمت کرده‌اند و مصرف‌کنندگان را هدف قرار نداده‌اند. Reality Defender، استارت آپی که توسط Y-Combinator پشتیبانی می شود، بر اساس تعداد اسکن هایی که انجام می دهد، هزینه دریافت می کند. این هزینه ها از ده ها هزار دلار تا میلیون ها دلار برای پوشش تراشه های پردازش گرافیکی گران قیمت و قدرت رایانش ابری متغیر است.

بن کولمن، مدیر عامل Reality Defender، گفت: پلتفرم هایی مانند فیس بوک و توییتر طبق قانون ملزم به شناسایی و هشدار در مورد محتوای دیپ فیک در پلتفرم های خود نیستند و کاربران را در تاریکی قرار می دهد. تنها سازمان هایی که کاری انجام می دهند، سازمان هایی مانند بانک ها هستند که ارتباط مستقیمی با کلاهبرداری مالی دارند.

مطلب پیشنهادی:  گوشی خود را به صورت رایگان به آیفون تبدیل کنید! فقط این به‌روزرسانی پیام‌های Google را دانلود کنید

روش‌های فعلی برای تشخیص تصاویر و ویدیوهای جعلی شامل مقایسه ویژگی‌های بصری در محتوا با آموزش رایانه‌ها برای یادگیری از نمونه‌ها و تعبیه واترمارک و اثر انگشت دوربین روی آثار اصلی است. Xuequan Lu، استاد دیگری در دانشگاه Deakin که روی این الگوریتم کار می‌کرد، گفت: اما گسترش سریع دیپ‌فیک‌ها به الگوریتم‌ها و منابع محاسباتی قوی‌تری نیاز دارد.

و بدون ابزار تجاری در دسترس و به طور گسترده پذیرفته شده برای تشخیص محتوای آنلاین جعلی از محتوای واقعی، فرصت های زیادی برای بازیگران بد وجود دارد.

تد شلاین، رئیس و شریک عمومی در Ballistic Ventures، که در شناسایی عمیق تقلبی سرمایه گذاری می کند و قبلاً در روزهای اولیه روی نرم افزار آنتی ویروس سرمایه گذاری می کرد، گفت: «آنچه من می بینم تقریباً شبیه چیزی است که در روزهای اولیه صنعت آنتی ویروس دیدم. . همانطور که هک ها پیچیده تر و مضر تر شدند، نرم افزار آنتی ویروس تکامل یافت و در نهایت به اندازه کافی ارزان شد تا کاربران بتوانند آن را در رایانه خود دانلود کنند. “ما در مراحل اولیه دیپ فیک هستیم” که تاکنون بیشتر برای مقاصد سرگرمی انجام شده است. شلاین گفت: “شما اکنون شروع به دیدن برخی از موارد مخرب کرده اید.”

شومان گوسماجومدر، رئیس هوش مصنوعی در F5 Inc.، یک شرکت امنیتی و پیشگیری از کلاهبرداری، گفت: اما حتی اگر به اندازه کافی ارزان باشد، ممکن است مصرف کنندگان تمایلی به پرداخت برای چنین فناوری نداشته باشند.

او گفت: «مصرف‌کنندگان نمی‌خواهند کارهای اضافی را خودشان انجام دهند. آنها به طور خودکار می خواهند تا آنجا که ممکن است محافظت شوند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا