افشاگر مایکروسافت هشداری را در مورد تولید کننده تصویر هوش مصنوعی به کارمندان ایالات متحده و هیئت مدیره شرکت می دهد
یکی از مهندسان مایکروسافت زنگ خطر را در مورد تصاویر توهینآمیز و مضر به صدا در میآورد که میگوید بهراحتی توسط ابزار تولید تصویر هوش مصنوعی این شرکت ایجاد میشود و روز چهارشنبه نامههایی را برای تنظیمکنندههای ایالات متحده و هیئت مدیره غول فناوری ارسال کرد و از آنها خواست تا اقدام کنند.
شین جونز به آسوشیتدپرس گفت که خود را یک افشاگر میداند و همچنین ماه گذشته با مقامات سنای ایالات متحده دیدار کرد تا نگرانیهای خود را در میان بگذارد.
کمیسیون تجارت فدرال تایید کرد که نامه او را روز چهارشنبه دریافت کرده است اما از اظهار نظر بیشتر خودداری کرد.
مایکروسافت اعلام کرد که متعهد است به نگرانیهای کارکنان در مورد سیاستهای شرکت رسیدگی کند و از تلاشهای جونز در مطالعه و آزمایش آخرین فناوری ما برای بهبود بیشتر ایمنی آن قدردانی میکند. او گفت که توصیه کرده است از “کانال های گزارش دهی داخلی قوی” خود شرکت برای بررسی و رسیدگی به این مسائل استفاده کند. CNBC اولین کسی بود که نامه ها را گزارش کرد.
جونز، یک مهندس نرمافزار اصلی که کارش شامل کار بر روی محصولات هوش مصنوعی برای مشتریان خردهفروشی مایکروسافت است، گفت که او سه ماه تلاش کرد تا نگرانیهای ایمنی در مورد Copilot Designer مایکروسافت را برطرف کند، ابزاری که میتواند تصاویر جدیدی از دستورالعملهای نوشته شده تولید کند. این ابزار از یک تولید کننده تصویر هوش مصنوعی دیگر به نام DALL-E 3 گرفته شده است که توسط شریک تجاری نزدیک مایکروسافت OpenAI ساخته شده است.
او در نامه خود به لینا خان، رئیس FTC گفت: «یکی از دردسرسازترین خطرات Copilot Designer زمانی است که محصول تصاویری تولید میکند که محتوای مضر را علیرغم درخواست خیرخواهانه کاربر اضافه میکند. به عنوان مثال، زمانی که فقط از دستور «تصادف خودرو» استفاده میکند، Copilot Designer تمایل دارد بهطور تصادفی تصویری نامناسب و جنسی جنسی از یک زن را در برخی از تصاویری که ایجاد میکند قرار دهد.»
او به FTC گفت: سایر محتوای مضر شامل خشونت، و همچنین “سوگیری سیاسی، مصرف مشروبات الکلی و مواد مخدر برای افراد زیر سن قانونی، سوء استفاده از علائم تجاری و حق نسخه برداری شرکت ها، تئوری های توطئه و مذهب، به عنوان چند مورد”. جونز گفت که او بارها از این شرکت خواسته است تا محصول را از بازار خارج کند تا زمانی که ایمن تر شود، یا حداقل رتبه بندی سنی آن را در گوشی های هوشمند تغییر دهد تا مشخص کند که این محصول برای مخاطبان بالغ است.
نامه او به هیئت مدیره مایکروسافت از مایکروسافت خواسته است تا تحقیقات مستقلی را برای بررسی اینکه آیا مایکروسافت محصولات خطرناکی را «بدون افشای خطرات شناخته شده برای مصرف کنندگان، از جمله کودکان» ارائه می دهد، آغاز کند.
این اولین بار نیست که جونز نگرانی های خود را به طور علنی بیان می کند. او گفت که مایکروسافت در ابتدا به او توصیه کرد که یافته های خود را مستقیماً به OpenAI بیاورد.
وقتی این کار جواب نداد، او همچنین در ماه دسامبر یک نامه عمومی به OpenAI در LinkedIn متعلق به مایکروسافت ارسال کرد که باعث شد یک مدیر به او اطلاع دهد که تیم حقوقی مایکروسافت “از من خواسته است که پست را حذف کنم، که من با اکراه انجام دادم.” نامه به هیئت .
علاوه بر کمیته بازرگانی سنای ایالات متحده، جونز نگرانی های خود را به دادستان کل ایالت واشنگتن، جایی که مقر مایکروسافت در آن قرار دارد، برده است.
جونز به AP گفت در حالی که “مشکل اصلی” در مدل DALL-E OpenAI است، کسانی که از ChatGPT OpenAI برای تولید تصاویر هوش مصنوعی استفاده می کنند، نتایج مضر مشابهی را تجربه نخواهند کرد زیرا این دو شرکت محصولات خود را با اقدامات حفاظتی متفاوتی پوشش می دهند.
او از طریق پیامک گفت: «بسیاری از مشکلات Copilot Designer اکنون با پادمانهای خود ChatGPT حل شده است.
تعدادی از تولیدکنندگان تصویر چشمگیر هوش مصنوعی برای اولین بار در سال 2022 روی صحنه ظاهر شدند، از جمله نسل دوم DALL-E 2 OpenAI. این – و انتشار متعاقب آن ربات چت OpenAI ChatGPT – جرقه شیفتگی عمومی را برانگیخت که فشار تجاری را بر غول های فناوری مانند مایکروسافت و گوگل نسخه های خود را منتشر خواهند کرد.
اما بدون پادمانهای مؤثر، این فناوری خطراتی را به همراه دارد، از جمله سهولت در ایجاد تصاویر «عمیق جعلی» مضر از شخصیتهای سیاسی، مناطق جنگی یا برهنگی غیرموافق که بهطور کاذب به نظر میرسد افراد واقعی را با چهرههای قابل تشخیص نشان میدهند. گوگل به طور موقت توانایی چت ربات Gemini خود را برای ایجاد تصاویری از افراد پس از خشم نسبت به نحوه به تصویر کشیدن نژاد و قومیت، مانند پوشاندن افراد رنگین پوست در یونیفرم های نظامی دوران نازی، تعلیق کرد.