ما باید بدانیم که شرکتهای هوش مصنوعی چگونه با جعلیات عمیق مبارزه میکنند
وقتی مردم نگران هوش مصنوعی هستند، این فقط به خاطر آنچه در آینده می بینند نیست، بلکه به خاطر چیزهایی است که از گذشته به یاد می آورند – به ویژه اثرات سمی رسانه های اجتماعی. سالها، اطلاعات نادرست و سخنان نفرتانگیز از سیستمهای پلیس فیسبوک و توییتر فرار کرد و در سراسر جهان پخش شد. اکنون دیپفیکها در همان پلتفرمها نفوذ میکنند، و در حالی که فیسبوک هنوز مسئول نحوه انتشار موارد بد است، شرکتهای هوش مصنوعی که آنها را ایجاد میکنند نیز نقشی در پاکسازی دارند. متأسفانه، درست مانند شرکت های رسانه های اجتماعی قبل از آنها، آنها این کار را پشت درهای بسته انجام می دهند.
من با ده ها شرکت مولد هوش مصنوعی تماس گرفتم که ابزارشان می تواند تصاویر، فیلم ها، متن و صداهای واقعی را تولید کند تا از آنها بپرسم که چگونه مطمئن شدند که کاربران از قوانین خود پیروی می کنند. (1) ده پاسخ دادند و همه تأیید کردند که از نرم افزار برای نظارت بر آنچه کاربران خود بیرون می کشند استفاده می کنند و اکثر آنها گفتند که افرادی را نیز دارند که این سیستم ها را بررسی می کنند. به سختی کسی موافقت کرد که نشان دهد چند نفر برای نظارت بر این سیستم ها تعیین شده اند.
و چرا باید؟ برخلاف سایر صنایع مانند داروسازی، خودرو و مواد غذایی، شرکتهای هوش مصنوعی هیچ تعهد قانونی برای افشای جزئیات اقدامات ایمنی خود ندارند. آنها، مانند شرکتهای رسانههای اجتماعی، میتوانند در مورد این کار به همان اندازه که میخواهند مرموز باشند و احتمالاً تا سالهای آینده نیز چنین خواهند ماند. قانون آینده هوش مصنوعی اروپا «الزامات شفافیت» را مطرح میکند، اما مشخص نیست که آیا شرکتهای هوش مصنوعی را مجبور میکند تا شیوههای ایمنی خود را به همان روشی که خودروسازان و تولیدکنندگان مواد غذایی انجام میدهند، حسابرسی کنند.
برای این صنایع دیگر، اتخاذ استانداردهای ایمنی سختگیرانه چندین دهه طول کشید. اما جهان نمیتواند ابزارهای هوش مصنوعی را برای مدت طولانی در حالی که به سرعت در حال تکامل هستند، مهیا کند. Midjourney اخیراً نرمافزار خود را بهروزرسانی کرده است تا تصاویری به قدری واقعگرایانه تولید کند که بتواند منافذ و خطوط ظریف پوست سیاستمداران را نشان دهد. در آغاز یک سال انتخاباتی عظیم، زمانی که تقریباً نیمی از جهان رای خواهند داد، یک خلاء نظارتی شکاف به این معنی است که محتوای تولید شده توسط هوش مصنوعی میتواند تأثیر مخربی بر دموکراسی، حقوق زنان، هنرهای خلاقانه و موارد دیگر داشته باشد.
در اینجا چند راه برای مقابله با مشکل وجود دارد. یکی این است که از شرکتهای هوش مصنوعی بخواهیم در مورد اقدامات ایمنی خود شفافتر باشند، که با پرسیدن سؤال شروع میشود. هنگامی که با OpenAI، Microsoft، Midjourney و دیگران تماس گرفتم، سؤالات را ساده کردم: چگونه قوانین خود را با استفاده از نرم افزار و افراد اجرا می کنید، و چند نفر این کار را انجام می دهند؟
اکثر آنها مایل بودند چند پاراگراف را در مورد جزئیات فرآیندهای پیشگیری از سوء استفاده خود (البته به طور مبهم با مردم) به اشتراک بگذارند. برای مثال OpenAI دو تیم از افراد داشت که به آموزش مجدد مدلهای هوش مصنوعی کمک میکردند تا آنها را ایمنتر کنند یا به نتایج مضر واکنش نشان دهند. شرکت سازنده تصویر بحث برانگیز Stable Diffusion گفت که از «فیلترهای» محافظ برای مسدود کردن تصاویری که قوانین آن را نقض میکنند، استفاده کرده است و ناظران انسانی پیامها و تصاویری را که پرچمگذاری شده بودند را بررسی میکنند.
همانطور که از جدول بالا می بینید، با این حال، تنها چند شرکت تعداد افرادی را که برای نظارت بر این سیستم ها استخدام کرده اند، افشا کردند. این افراد را به عنوان بازرسان ایمنی داخلی در نظر بگیرید. در رسانههای اجتماعی، آنها بهعنوان ناظر محتوا شناخته میشوند و نقش چالشبرانگیز اما مهمی در بررسی مضاعف محتوایی که الگوریتمهای رسانههای اجتماعی بهعنوان نژادپرستانه، زنستیزانه یا خشونتآمیز پرچمگذاری میکنند، ایفا کردهاند. فیس بوک بیش از 15000 ناظر دارد که یکپارچگی سایت را بدون محدودیت آزادی کاربران حفظ می کنند. این یک تعادل ظریف است که انسان ها آن را به بهترین شکل انجام می دهند.
البته، اکثر ابزارهای هوش مصنوعی با فیلترهای امنیتی داخلی خود، محتوای سمی را که مردم در فیس بوک انجام می دهند، منتشر نمی کنند. اما اگر تعدیل کنندگان انسانی بیشتری را استخدام کنند، همچنان می توانند ایمن تر و قابل اعتمادتر شوند. در نبود نرمافزار بهتر برای دریافت محتوای مضر، که تاکنون وجود نداشته است، مردم بهترین راه حل هستند.
جعلیهای پورنوگرافیک تیلور سویفت و شبیهسازیهای صوتی رئیسجمهور جو بایدن و دیگر سیاستمداران بینالمللی در فضای مجازی منتشر شدهاند، فقط چند نمونه را نام میبریم و نشان میدهند که هوش مصنوعی و شرکتهای فناوری به اندازه کافی برای ایمنی سرمایهگذاری نمیکنند. درست است که استخدام افراد بیشتر برای کمک به اجرای قوانینشان مانند دریافت سطل آب بیشتر برای خاموش کردن آتش سوزی خانه است. این ممکن است کل مشکل را حل نکند، اما به طور موقت آن را بهبود می بخشد.
بن وایتلاو، بنیانگذار همه چیز در اعتدال، یک خبرنامه ایمنی آنلاین، میگوید: «اگر شما یک استارتآپ هستید که ابزاری با مؤلفه هوش مصنوعی تولید میکند، استخدام افراد در مراحل مختلف فرآیند توسعه چیزی بین بسیار عاقلانه و حیاتی است.
چندین شرکت هوش مصنوعی اعتراف کرده اند که فقط یک یا دو ناظر انسانی دارند. شرکت تولید ویدئو Runway گفت که محققان خود این کار را انجام دادند. Descript که ابزار شبیهسازی صدا به نام Overdub میسازد، گفت که فقط نمونهای از صداهای شبیهسازی شده را بررسی میکند تا مطمئن شود که با بیانیه رضایت خوانده شده توسط مشتریان مطابقت دارند. سخنگوی این استارت آپ مدعی شد که بررسی کار آنها حریم خصوصی آنها را نقض می کند.
شرکتهای هوش مصنوعی آزادی بینظیری برای انجام مخفیانه کار خود دارند. اما اگر میخواهند اعتماد مردم، تنظیمکنندهها و جامعه مدنی را تضمین کنند، به نفعشان است که بیشتر از حجاب عقب نشینی کنند تا نشان دهند دقیقاً چگونه قوانین خود را اعمال میکنند. استخدام افراد بیشتر نیز ایده بدی نخواهد بود. تمرکز بیش از حد روی مسابقه برای «هوشمندتر کردن» هوش مصنوعی به طوری که عکسهای جعلی واقعیتر به نظر برسند، یا متن نرمتر به نظر برسند، یا صداهای شبیهسازیشده قانعکنندهتر شوند، ما را به اعماق دنیایی خطرناک و گیجکننده سوق میدهد. بهتر است این استانداردهای ایمنی را در حال حاضر ذخیره کنید و قبل از اینکه کارها بسیار دشوارتر شوند، فاش کنید.
این داستان های برتر را امروز نیز بخوانید:
آشفتگی فیس بوک؟ فیس بوک نمی تواند راه خود را به دو دهه دیگر رونق کپی کند یا به دست آورد. آیا مارک زاکربرگ، مدیرعامل این شرکت با این کار کنار می آید؟ تحلیلگر میگوید فیسبوک مانند یک شهربازی متروکه با ایدههای ضعیف است. جالب هست؟ اینجا را ببینید. ادامه دهید و آن را با همه کسانی که می شناسید به اشتراک بگذارید.
خرید توییتر توسط ایلان ماسک همچنان در دادگاه است! دادگاه از ایلان ماسک میخواهد که در برابر کمیسیون SEC ایالات متحده درباره نقض احتمالی قانون در ارتباط با خرید توییتر شهادت دهد. بدانید که اوضاع اینجا کجاست.
آیا تسلا فاقد هوش مصنوعی Play است؟ تحلیلگران بر این جنبه تاکید دارند و برای تسلا این یک مشکل است. برخی از جزئیات جالب در این مقاله. اینجا را ببینید. اگر از خواندن این مقاله لذت بردید، لطفا آن را برای دوستان و خانواده خود ارسال کنید.