تکنولوژی

متا برای شناسایی تصاویر بیشتر تولید شده توسط هوش مصنوعی قبل از انتخابات آینده

مارک زاکربرگ، مدیرعامل متا پلتفرمز، در 20 دسامبر 2022 وارد دادگاه فدرال در سن خوزه، کالیفرنیا می شود.

دیوید پل موریس | بلومبرگ | گتی ایماژ

متا روز سه‌شنبه گفت که در حال گسترش تلاش‌های خود برای شناسایی تصاویر جعل شده توسط هوش مصنوعی است زیرا به دنبال حذف اطلاعات نادرست و تقلب‌های عمیق در آستانه انتخابات آینده در سراسر جهان است.

این شرکت گفت که در حال ساخت ابزارهایی برای شناسایی محتوای تولید شده توسط هوش مصنوعی در مقیاسی است که در فیس بوک، اینستاگرام و Threads ظاهر می شود.

تا به حال، متا فقط تصاویر تولید شده توسط هوش مصنوعی را که با استفاده از ابزارهای اختصاصی هوش مصنوعی ساخته شده بودند، برچسب گذاری می کرد. این شرکت اکنون گفته است که به دنبال اعمال این برچسب ها بر روی محتوای موجود است گوگلOpenAI، مایکروسافت، AdobeMidjourney و Shutterstock.

متا گفت که برچسب ها به تمام زبان های موجود در هر برنامه نمایش داده می شوند. اما تغییر آنی نخواهد بود.

نیک کلگ، رئیس امور جهانی متا، در یک پست وبلاگی نوشت که این شرکت «در ماه‌های آینده» شروع به پرچم‌گذاری تصاویر تولید شده توسط هوش مصنوعی که از منابع خارجی نشأت می‌گیرند، خواهد کرد و «طی سال آینده» به کار بر روی این مشکل ادامه خواهد داد.

کلگ نوشت: زمان اضافی برای کار با سایر شرکت‌های هوش مصنوعی لازم است تا «در مورد استانداردهای فنی مشترکی که نشان می‌دهند زمانی که محتوایی با استفاده از هوش مصنوعی ایجاد شده است، توافق کنند.»

اطلاعات نادرست مربوط به انتخابات پس از انتخابات ریاست جمهوری 2016 فیس بوک را به دلیل شیوه ای که بازیگران خارجی، عمدتاً از روسیه، قادر به ایجاد و توزیع محتوای بسیار پرمخاطب و نادرست بودند، با بحران مواجه کرد. این پلتفرم در سال‌های بعد به طور مکرر مورد سوء استفاده قرار گرفت، به ویژه در طول همه‌گیری کووید، زمانی که مردم از آن برای انتشار مقادیر زیادی اطلاعات نادرست استفاده کردند. منکران هولوکاست و نظریه پردازان توطئه QAnon نیز در این سایت پخش می شدند.

مطلب پیشنهادی:  ChatGPT با این به روز رسانی بزرگ قدرتمندتر می شود: در اینجا تمام آخرین ویژگی های OpenAI وجود دارد

متا در تلاش است نشان دهد که برای بازیگران بد برای استفاده از اشکال پیشرفته‌تر فناوری در چرخه 2024 آماده است.

در حالی که پیدا کردن برخی از محتوای تولید شده توسط هوش مصنوعی آسان است، اما همیشه اینطور نیست. نشان داده شده است که سرویس‌هایی که ادعا می‌کنند متن تولید شده توسط هوش مصنوعی را شناسایی می‌کنند، مانند مقالات، غیرانگلیسی‌زبان‌ها را سوگیری می‌کنند. برای تصاویر و ویدیوها چندان آسان نیست، اگرچه اغلب نشانه هایی وجود دارد.

متا با همکاری با سایر شرکت های هوش مصنوعی که از واترمارک های نامرئی و انواع خاصی از ابرداده ها در تصاویر ایجاد شده در پلتفرم های خود استفاده می کنند، به دنبال به حداقل رساندن عدم اطمینان است. با این حال، راه هایی برای حذف واترمارک وجود دارد، مشکلی که متا قصد دارد آن را حل کند.

کلگ می‌نویسد: «ما سخت کار می‌کنیم تا طبقه‌بندی‌کننده‌هایی ایجاد کنیم که به ما کمک کنند محتوای تولید شده توسط هوش مصنوعی را به‌طور خودکار شناسایی کنیم، حتی اگر محتوا برچسب نامرئی نداشته باشد. در عین حال، ما به دنبال راه‌هایی برای سخت‌تر کردن حذف یا تغییر واترمارک‌های نامرئی هستیم.»

نظارت بر صدا و تصویر حتی دشوارتر از تصاویر است، زیرا هنوز استاندارد صنعتی برای شرکت‌های هوش مصنوعی برای افزودن شناسه‌های نامرئی وجود ندارد.

کلگ نوشت: «ما هنوز نمی‌توانیم این سیگنال‌ها را شناسایی کنیم و این محتوای شرکت‌های دیگر را برچسب‌گذاری کنیم.

متا راهی را برای کاربران اضافه می کند که به طور داوطلبانه هنگام آپلود ویدیو یا صدای تولید شده توسط هوش مصنوعی، افشا کنند. در این پست آمده است که اگر آنها یک محتوای دیپ فیک یا شکل دیگری از محتوای تولید شده توسط هوش مصنوعی را بدون افشای آن به اشتراک بگذارند، شرکت ممکن است جریمه هایی را اعمال کند.

مطلب پیشنهادی:  شرکت های فناوری هند اقتصاد آمریکا را تقویت می کنند، حدود 200 میلیارد دلار اضافه می کنند، 1.6 میلیون شغل ایجاد می کنند!

کلگ می‌نویسد: «اگر تشخیص دهیم که یک تصویر، ویدیو یا محتوای صوتی به‌صورت دیجیتالی ایجاد شده یا تغییر داده شده، خطر به‌ویژه گمراه‌کردن مادی عمومی را در مورد یک موضوع مهم ایجاد می‌کند، ممکن است در صورت لزوم برچسب برجسته‌تری اضافه کنیم.

تماشا کردن: متا نسبت به رشد درآمد و هزینه بیش از حد صعودی است

لورا مارتین از Needham می گوید که متا نسبت به رشد درآمد در سال 2024 بسیار صعودی است

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا