تکنولوژی

مبارزه با دیپ فیک: MCA با متا برای مهار اطلاعات نادرست تولید شده توسط هوش مصنوعی با خط کمک WhatsApp همکاری می کند.

اتحاد ضد اطلاعات نادرست (MCA) و متا اعلام کرده‌اند که یک خط ویژه بررسی واقعیت واتس‌اپ – با هدف مبارزه با جعلی‌های عمیق و محتوای فریبنده تولید شده توسط هوش مصنوعی – در مارس 2024 در دسترس عموم قرار خواهد گرفت.

وعده مقابله با دیپ فیک در حالی صورت می گیرد که بزرگترین دموکراسی جهان برای انتخابات عمومی آماده می شود. انتخابات لوک سبها در ماه آوریل تا می امسال برگزار می شود.

«اتحاد ضد اطلاعات نادرست (MCA) و متا در تلاش برای راه‌اندازی یک خط ویژه بررسی حقایق در واتس‌اپ هستند تا با رسانه‌های تولید شده توسط هوش مصنوعی (AI) که می‌توانند مردم را در مورد مسائل مهم عمومی، معروف به دیپ‌فیک، گمراه کنند، راه‌اندازی کنند. و به مردم کمک کنید با اطلاعات تایید شده و معتبر ارتباط برقرار کنند.”

این خط کمک در مارس 2024 برای استفاده عمومی در دسترس خواهد بود.

MCA یک اتحاد بین‌صنعتی است که شرکت‌ها، سازمان‌ها، مؤسسات، انجمن‌های صنعتی و اشخاص حقوقی را گرد هم می‌آورد تا به طور جمعی با اطلاعات نادرست و تأثیر آن مبارزه کنند. در حال حاضر 16 عضو وجود دارد که شامل سازمان های حقیقت یابی، رسانه ها و فناوری مدنی می شود.

همکاری MCA-Meta به MCA و شبکه وابسته به آن از بررسی‌کننده‌های مستقل و سازمان‌های تحقیقاتی این امکان را می‌دهد تا با اطلاعات نادرست ویروسی – به‌ویژه اخبار جعلی عمیق، مقابله کنند.

مردم می توانند با ارسال آن به چت بات واتس اپ، دیپ فیک ها را علامت گذاری کنند، که پشتیبانی چند زبانه را به زبان انگلیسی و سه زبان منطقه ای (هندی، تامیل، تلوگو) ارائه می دهد.

MCA یک واحد تجزیه و تحلیل پیام جعلی عمیق مرکزی راه اندازی خواهد کرد تا تمام پیام های دریافتی را که در خط کمک WhatsApp دریافت می کنند، مدیریت کند.

مطلب پیشنهادی:  ایلان ماسک چگونه هزینه توییتر را پرداخت خواهد کرد؟ در 4 نکته توضیح داده شده است

آنها از نزدیک با اعضای سازمان های راستی آزمایی و همچنین شرکای صنعتی و آزمایشگاه های دیجیتالی همکاری خواهند کرد تا محتوا را ارزیابی و تأیید کنند و بر اساس آن به پیام ها پاسخ دهند، ادعاهای نادرست و اطلاعات نادرست را رد کنند.

به گفته این نشریه، این برنامه بر اساس یک رویکرد چهار ستونی است – تشخیص، پیشگیری، گزارش و افزایش آگاهی در مورد گسترش روزافزون جعل جعل، همراه با ساخت یک ابزار حیاتی که به شهروندان اجازه می دهد به اطلاعات قابل اعتماد برای مبارزه با گسترش دسترسی داشته باشند. چنین اطلاعات نادرستی. .

با میلیون‌ها کاربر هندی واتس‌اپ، همکاری متا و MCA نشان‌دهنده تلاش مداوم برای توانمندسازی کاربران با ابزارهایی برای تأیید اطلاعات مربوط به این سرویس است.

Shivnath Thukral، مدیر سیاست عمومی هند، Meta، در توضیح این همکاری گفت: “ما نگرانی های مربوط به اطلاعات نادرست تولید شده توسط هوش مصنوعی را می شناسیم و معتقدیم که مبارزه با این امر مستلزم اقدامات ملموس و مشترک در سراسر صنعت است.”

همکاری با MCA برای راه‌اندازی خط کمکی واتس‌اپ اختصاص داده شده به حذف پیام‌های جعلی عمیق که می‌توانند به طور قابل توجهی مردم را گمراه کنند، مطابق با تعهد متا تحت توافقنامه فنی برای مبارزه با استفاده تقلبی از هوش مصنوعی در انتخابات 2024 است.

“به عنوان شرکتی که بیش از یک دهه در خط مقدم توسعه هوش مصنوعی بوده است، ما همچنان متعهد به همکاری با سهامداران صنعت برای معرفی استانداردهای فنی مشترک برای کشف هوش مصنوعی، راه حل ها و سیاست های شفافیت، همراه با توانمندسازی افراد در پلتفرم های خود با منابع هستیم. و ابزارهایی که شناسایی محتوای تولید شده با استفاده از ابزارهای هوش مصنوعی را برای آنها آسان تر می کند و انتشار اطلاعات نادرست را محدود می کند.

مطلب پیشنهادی:  آشفتگی در توییتر در میان انواع شکست درآمدهای اخیر رتبه بندی می شود

بهارات گوپتا، رئیس اتحاد مبارزه با اطلاعات نادرست، گفت که واحد تجزیه و تحلیل Deepfakes (DAU) به عنوان یک مداخله مهم و به موقع برای جلوگیری از انتشار اطلاعات نادرست مبتنی بر هوش مصنوعی در میان رسانه های اجتماعی و کاربران اینترنت در هند عمل خواهد کرد.

“تشکیل آن بر همکاری و رویکرد کل جامعه برای تقویت یک اکوسیستم اطلاعاتی سالم تاکید دارد، که MCA برای آن ایجاد شده است. گوپتا گفت: این ابتکار با بررسی‌کنندگان حقایق، امضاکنندگان IFCN، روزنامه‌نگاران، متخصصان فن‌آوری مدنی، آزمایشگاه‌های تحقیقاتی و کارشناسان پزشکی قانونی، با حمایت متا مواجه خواهد شد.

او امیدوار بود که DAU به منبعی قابل اعتماد برای عموم مردم تبدیل شود تا بین رسانه های واقعی و تولید شده توسط هوش مصنوعی تمایز قائل شوند و از سهامداران بیشتری دعوت کرد تا بخشی از این طرح باشند.

برنامه راستی‌آزمایی متا در هند شامل مشارکت با 11 سازمان مستقل راستی‌آزمایی می‌شود که به کاربران کمک می‌کند اطلاعات را شناسایی، بررسی، تأیید کنند و به جلوگیری از انتشار اطلاعات نادرست در پلتفرم‌هایشان کمک کنند.

واتس‌اپ کاربران را تشویق می‌کند تا اطلاعاتی را که مشکوک یا نادرست به نظر می‌رسند با ارسال آن به خطوط راهنمایی واتس‌اپ دوباره بررسی کنند. مردم همچنین می‌توانند سازمان‌های مربوط به حقیقت‌سنجی را در کانال‌های واتس‌اپ دنبال کنند تا به‌روزرسانی‌های تأییدشده، دقیق و به موقع را دریافت کنند. علاوه بر برنامه راستی‌آزمایی، واتس‌اپ اطلاعات نادرست را با محدود کردن فوروارد و محدود کردن فعال ویروسی بودن پلتفرم برطرف می‌کند.

همچنین ذکر این نکته در اینجا مناسب است که دولت در بحبوحه ترس از تبدیل شدن فناوری به سلاحی برای ایجاد محتوای جعلی و روایت‌های مضر، به شدت با پلتفرم‌های رسانه‌های اجتماعی درباره موضوع «جعلی عمیق» صحبت کرده است.

مطلب پیشنهادی:  مارک زاکربرگ فاش می کند که Roblox تجربه واقعیت مجازی خود را به هدست VR Meta Quest خواهد آورد

این مرکز از پلتفرم‌ها خواسته است که قاطعانه در مورد تقلبی‌های عمیق عمل کنند و شرایط استفاده و دستورالعمل‌های جامعه خود را مطابق با قوانین فناوری اطلاعات و قوانین قابل اجرا هماهنگ کنند. دولت به صراحت اعلام کرده است که با هرگونه عدم رعایت قاطعانه برخورد خواهد شد و عواقب قانونی در پی خواهد داشت.

اخبار برتر امروز را بیشتر بخوانید:

بهای کارهایی را در هند انجام می دهد؟ کارل پی قبل از معرفی Nothing Phone 2a با حضور ایلان ماسک، مدیر عامل شرکت Perplexity، از نام “Bhai” استفاده می کند. همه چیز در مورد آن را اینجا بخوانید.

بهبود @work! به دنبال یک ابزار مدیریت کار موثر برای افزایش بهره وری تیم هستید؟ بیاموزید که چگونه Smartsheet می تواند به توانمندسازی تیم ها با ابزارهای همکاری موثر کمک کند. برخی از جزئیات جالب در این مقاله. اینجا را ببینید.

جدیدترین آیفون با تخفیف بزرگ در دسترس است! تنها چند ماه پس از عرضه، آیفون 15 اپل با تخفیف بسیار زیادی در دسترس است. اینجا را ببینید.

یک چیز دیگر! ما اکنون در کانال های واتس اپ هستیم! ما را در آنجا دنبال کنید تا هیچ به روز رسانی دنیای فناوری را از دست ندهید. برای دنبال کردن کانال واتساپ HT Tech کلیک کنید اینجا برای پیوستن به هم اکنون!

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا