تکنولوژی

ما باید بدانیم که شرکت‌های هوش مصنوعی چگونه با جعلیات عمیق مبارزه می‌کنند

وقتی مردم نگران هوش مصنوعی هستند، این فقط به خاطر آنچه در آینده می بینند نیست، بلکه به خاطر چیزهایی است که از گذشته به یاد می آورند – به ویژه اثرات سمی رسانه های اجتماعی. سال‌ها، اطلاعات نادرست و سخنان نفرت‌انگیز از سیستم‌های پلیس فیس‌بوک و توییتر فرار کرد و در سراسر جهان پخش شد. اکنون دیپ‌فیک‌ها در همان پلتفرم‌ها نفوذ می‌کنند، و در حالی که فیس‌بوک هنوز مسئول نحوه انتشار موارد بد است، شرکت‌های هوش مصنوعی که آنها را ایجاد می‌کنند نیز نقشی در پاکسازی دارند. متأسفانه، درست مانند شرکت های رسانه های اجتماعی قبل از آنها، آنها این کار را پشت درهای بسته انجام می دهند.

من با ده ها شرکت مولد هوش مصنوعی تماس گرفتم که ابزارشان می تواند تصاویر، فیلم ها، متن و صداهای واقعی را تولید کند تا از آنها بپرسم که چگونه مطمئن شدند که کاربران از قوانین خود پیروی می کنند. (1) ده پاسخ دادند و همه تأیید کردند که از نرم افزار برای نظارت بر آنچه کاربران خود بیرون می کشند استفاده می کنند و اکثر آنها گفتند که افرادی را نیز دارند که این سیستم ها را بررسی می کنند. به سختی کسی موافقت کرد که نشان دهد چند نفر برای نظارت بر این سیستم ها تعیین شده اند.

و چرا باید؟ برخلاف سایر صنایع مانند داروسازی، خودرو و مواد غذایی، شرکت‌های هوش مصنوعی هیچ تعهد قانونی برای افشای جزئیات اقدامات ایمنی خود ندارند. آنها، مانند شرکت‌های رسانه‌های اجتماعی، می‌توانند در مورد این کار به همان اندازه که می‌خواهند مرموز باشند و احتمالاً تا سال‌های آینده نیز چنین خواهند ماند. قانون آینده هوش مصنوعی اروپا «الزامات شفافیت» را مطرح می‌کند، اما مشخص نیست که آیا شرکت‌های هوش مصنوعی را مجبور می‌کند تا شیوه‌های ایمنی خود را به همان روشی که خودروسازان و تولیدکنندگان مواد غذایی انجام می‌دهند، حسابرسی کنند.

مطلب پیشنهادی:  تکان دهنده! این سیارک وحشی از ناکجاآباد ظاهر شد و به سمت زمین حرکت کرد. دانشمندان با یک نقطه کور برخورد کردند

برای این صنایع دیگر، اتخاذ استانداردهای ایمنی سختگیرانه چندین دهه طول کشید. اما جهان نمی‌تواند ابزارهای هوش مصنوعی را برای مدت طولانی در حالی که به سرعت در حال تکامل هستند، مهیا کند. Midjourney اخیراً نرم‌افزار خود را به‌روزرسانی کرده است تا تصاویری به قدری واقع‌گرایانه تولید کند که بتواند منافذ و خطوط ظریف پوست سیاستمداران را نشان دهد. در آغاز یک سال انتخاباتی عظیم، زمانی که تقریباً نیمی از جهان رای خواهند داد، یک خلاء نظارتی شکاف به این معنی است که محتوای تولید شده توسط هوش مصنوعی می‌تواند تأثیر مخربی بر دموکراسی، حقوق زنان، هنرهای خلاقانه و موارد دیگر داشته باشد.

در اینجا چند راه برای مقابله با مشکل وجود دارد. یکی این است که از شرکت‌های هوش مصنوعی بخواهیم در مورد اقدامات ایمنی خود شفاف‌تر باشند، که با پرسیدن سؤال شروع می‌شود. هنگامی که با OpenAI، Microsoft، Midjourney و دیگران تماس گرفتم، سؤالات را ساده کردم: چگونه قوانین خود را با استفاده از نرم افزار و افراد اجرا می کنید، و چند نفر این کار را انجام می دهند؟

اکثر آنها مایل بودند چند پاراگراف را در مورد جزئیات فرآیندهای پیشگیری از سوء استفاده خود (البته به طور مبهم با مردم) به اشتراک بگذارند. برای مثال OpenAI دو تیم از افراد داشت که به آموزش مجدد مدل‌های هوش مصنوعی کمک می‌کردند تا آنها را ایمن‌تر کنند یا به نتایج مضر واکنش نشان دهند. شرکت سازنده تصویر بحث برانگیز Stable Diffusion گفت که از «فیلترهای» محافظ برای مسدود کردن تصاویری که قوانین آن را نقض می‌کنند، استفاده کرده است و ناظران انسانی پیام‌ها و تصاویری را که پرچم‌گذاری شده بودند را بررسی می‌کنند.

همانطور که از جدول بالا می بینید، با این حال، تنها چند شرکت تعداد افرادی را که برای نظارت بر این سیستم ها استخدام کرده اند، افشا کردند. این افراد را به عنوان بازرسان ایمنی داخلی در نظر بگیرید. در رسانه‌های اجتماعی، آن‌ها به‌عنوان ناظر محتوا شناخته می‌شوند و نقش چالش‌برانگیز اما مهمی در بررسی مضاعف محتوایی که الگوریتم‌های رسانه‌های اجتماعی به‌عنوان نژادپرستانه، زن‌ستیزانه یا خشونت‌آمیز پرچم‌گذاری می‌کنند، ایفا کرده‌اند. فیس بوک بیش از 15000 ناظر دارد که یکپارچگی سایت را بدون محدودیت آزادی کاربران حفظ می کنند. این یک تعادل ظریف است که انسان ها آن را به بهترین شکل انجام می دهند.

مطلب پیشنهادی:  5 چیز در مورد هوش مصنوعی که ممکن است امروز از دست داده باشید: شرکت انگلیسی چت ربات هوش مصنوعی جعلی را غیرفعال می کند، خطر GenAI، و موارد دیگر

البته، اکثر ابزارهای هوش مصنوعی با فیلترهای امنیتی داخلی خود، محتوای سمی را که مردم در فیس بوک انجام می دهند، منتشر نمی کنند. اما اگر تعدیل کنندگان انسانی بیشتری را استخدام کنند، همچنان می توانند ایمن تر و قابل اعتمادتر شوند. در نبود نرم‌افزار بهتر برای دریافت محتوای مضر، که تاکنون وجود نداشته است، مردم بهترین راه حل هستند.

جعلی‌های پورنوگرافیک تیلور سویفت و شبیه‌سازی‌های صوتی رئیس‌جمهور جو بایدن و دیگر سیاستمداران بین‌المللی در فضای مجازی منتشر شده‌اند، فقط چند نمونه را نام می‌بریم و نشان می‌دهند که هوش مصنوعی و شرکت‌های فناوری به اندازه کافی برای ایمنی سرمایه‌گذاری نمی‌کنند. درست است که استخدام افراد بیشتر برای کمک به اجرای قوانینشان مانند دریافت سطل آب بیشتر برای خاموش کردن آتش سوزی خانه است. این ممکن است کل مشکل را حل نکند، اما به طور موقت آن را بهبود می بخشد.

بن وایتلاو، بنیانگذار همه چیز در اعتدال، یک خبرنامه ایمنی آنلاین، می‌گوید: «اگر شما یک استارت‌آپ هستید که ابزاری با مؤلفه هوش مصنوعی تولید می‌کند، استخدام افراد در مراحل مختلف فرآیند توسعه چیزی بین بسیار عاقلانه و حیاتی است.

چندین شرکت هوش مصنوعی اعتراف کرده اند که فقط یک یا دو ناظر انسانی دارند. شرکت تولید ویدئو Runway گفت که محققان خود این کار را انجام دادند. Descript که ابزار شبیه‌سازی صدا به نام Overdub می‌سازد، گفت که فقط نمونه‌ای از صداهای شبیه‌سازی شده را بررسی می‌کند تا مطمئن شود که با بیانیه رضایت خوانده شده توسط مشتریان مطابقت دارند. سخنگوی این استارت آپ مدعی شد که بررسی کار آنها حریم خصوصی آنها را نقض می کند.

مطلب پیشنهادی:  دموکرات ها در حال تحقیق درباره استفاده ادعایی روسیه از SpaceX Starlink در اوکراین هستند

شرکت‌های هوش مصنوعی آزادی بی‌نظیری برای انجام مخفیانه کار خود دارند. اما اگر می‌خواهند اعتماد مردم، تنظیم‌کننده‌ها و جامعه مدنی را تضمین کنند، به نفعشان است که بیشتر از حجاب عقب نشینی کنند تا نشان دهند دقیقاً چگونه قوانین خود را اعمال می‌کنند. استخدام افراد بیشتر نیز ایده بدی نخواهد بود. تمرکز بیش از حد روی مسابقه برای «هوشمندتر کردن» هوش مصنوعی به طوری که عکس‌های جعلی واقعی‌تر به نظر برسند، یا متن نرم‌تر به نظر برسند، یا صداهای شبیه‌سازی‌شده قانع‌کننده‌تر شوند، ما را به اعماق دنیایی خطرناک و گیج‌کننده سوق می‌دهد. بهتر است این استانداردهای ایمنی را در حال حاضر ذخیره کنید و قبل از اینکه کارها بسیار دشوارتر شوند، فاش کنید.

این داستان های برتر را امروز نیز بخوانید:

آشفتگی فیس بوک؟ فیس بوک نمی تواند راه خود را به دو دهه دیگر رونق کپی کند یا به دست آورد. آیا مارک زاکربرگ، مدیرعامل این شرکت با این کار کنار می آید؟ تحلیل‌گر می‌گوید فیس‌بوک مانند یک شهربازی متروکه با ایده‌های ضعیف است. جالب هست؟ اینجا را ببینید. ادامه دهید و آن را با همه کسانی که می شناسید به اشتراک بگذارید.

خرید توییتر توسط ایلان ماسک همچنان در دادگاه است! دادگاه از ایلان ماسک می‌خواهد که در برابر کمیسیون SEC ایالات متحده درباره نقض احتمالی قانون در ارتباط با خرید توییتر شهادت دهد. بدانید که اوضاع اینجا کجاست.

آیا تسلا فاقد هوش مصنوعی Play است؟ تحلیلگران بر این جنبه تاکید دارند و برای تسلا این یک مشکل است. برخی از جزئیات جالب در این مقاله. اینجا را ببینید. اگر از خواندن این مقاله لذت بردید، لطفا آن را برای دوستان و خانواده خود ارسال کنید.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا