تکنولوژی

افشاگر مایکروسافت هشداری را در مورد تولید کننده تصویر هوش مصنوعی به کارمندان ایالات متحده و هیئت مدیره شرکت می دهد

یکی از مهندسان مایکروسافت زنگ خطر را در مورد تصاویر توهین‌آمیز و مضر به صدا در می‌آورد که می‌گوید به‌راحتی توسط ابزار تولید تصویر هوش مصنوعی این شرکت ایجاد می‌شود و روز چهارشنبه نامه‌هایی را برای تنظیم‌کننده‌های ایالات متحده و هیئت مدیره غول فناوری ارسال کرد و از آن‌ها خواست تا اقدام کنند.

شین جونز به آسوشیتدپرس گفت که خود را یک افشاگر می‌داند و همچنین ماه گذشته با مقامات سنای ایالات متحده دیدار کرد تا نگرانی‌های خود را در میان بگذارد.

کمیسیون تجارت فدرال تایید کرد که نامه او را روز چهارشنبه دریافت کرده است اما از اظهار نظر بیشتر خودداری کرد.

مایکروسافت اعلام کرد که متعهد است به نگرانی‌های کارکنان در مورد سیاست‌های شرکت رسیدگی کند و از تلاش‌های جونز در مطالعه و آزمایش آخرین فناوری ما برای بهبود بیشتر ایمنی آن قدردانی می‌کند. او گفت که توصیه کرده است از “کانال های گزارش دهی داخلی قوی” خود شرکت برای بررسی و رسیدگی به این مسائل استفاده کند. CNBC اولین کسی بود که نامه ها را گزارش کرد.

جونز، یک مهندس نرم‌افزار اصلی که کارش شامل کار بر روی محصولات هوش مصنوعی برای مشتریان خرده‌فروشی مایکروسافت است، گفت که او سه ماه تلاش کرد تا نگرانی‌های ایمنی در مورد Copilot Designer مایکروسافت را برطرف کند، ابزاری که می‌تواند تصاویر جدیدی از دستورالعمل‌های نوشته شده تولید کند. این ابزار از یک تولید کننده تصویر هوش مصنوعی دیگر به نام DALL-E 3 گرفته شده است که توسط شریک تجاری نزدیک مایکروسافت OpenAI ساخته شده است.

او در نامه خود به لینا خان، رئیس FTC گفت: «یکی از دردسرسازترین خطرات Copilot Designer زمانی است که محصول تصاویری تولید می‌کند که محتوای مضر را علی‌رغم درخواست خیرخواهانه کاربر اضافه می‌کند. به عنوان مثال، زمانی که فقط از دستور «تصادف خودرو» استفاده می‌کند، Copilot Designer تمایل دارد به‌طور تصادفی تصویری نامناسب و جنسی جنسی از یک زن را در برخی از تصاویری که ایجاد می‌کند قرار دهد.»

مطلب پیشنهادی:  چگونه ظالمان از فناوری برای جاسوسی از همه ما استفاده می کنند

او به FTC گفت: سایر محتوای مضر شامل خشونت، و همچنین “سوگیری سیاسی، مصرف مشروبات الکلی و مواد مخدر برای افراد زیر سن قانونی، سوء استفاده از علائم تجاری و حق نسخه برداری شرکت ها، تئوری های توطئه و مذهب، به عنوان چند مورد”. جونز گفت که او بارها از این شرکت خواسته است تا محصول را از بازار خارج کند تا زمانی که ایمن تر شود، یا حداقل رتبه بندی سنی آن را در گوشی های هوشمند تغییر دهد تا مشخص کند که این محصول برای مخاطبان بالغ است.

نامه او به هیئت مدیره مایکروسافت از مایکروسافت خواسته است تا تحقیقات مستقلی را برای بررسی اینکه آیا مایکروسافت محصولات خطرناکی را «بدون افشای خطرات شناخته شده برای مصرف کنندگان، از جمله کودکان» ارائه می دهد، آغاز کند.

این اولین بار نیست که جونز نگرانی های خود را به طور علنی بیان می کند. او گفت که مایکروسافت در ابتدا به او توصیه کرد که یافته های خود را مستقیماً به OpenAI بیاورد.

وقتی این کار جواب نداد، او همچنین در ماه دسامبر یک نامه عمومی به OpenAI در LinkedIn متعلق به مایکروسافت ارسال کرد که باعث شد یک مدیر به او اطلاع دهد که تیم حقوقی مایکروسافت “از من خواسته است که پست را حذف کنم، که من با اکراه انجام دادم.” نامه به هیئت .

علاوه بر کمیته بازرگانی سنای ایالات متحده، جونز نگرانی های خود را به دادستان کل ایالت واشنگتن، جایی که مقر مایکروسافت در آن قرار دارد، برده است.

جونز به AP گفت در حالی که “مشکل اصلی” در مدل DALL-E OpenAI است، کسانی که از ChatGPT OpenAI برای تولید تصاویر هوش مصنوعی استفاده می کنند، نتایج مضر مشابهی را تجربه نخواهند کرد زیرا این دو شرکت محصولات خود را با اقدامات حفاظتی متفاوتی پوشش می دهند.

مطلب پیشنهادی:  فیس‌بوک، اینستاگرام و واتس‌اپ - Revolut می‌گوید اپلیکیشن‌های متا «محلی برای کلاه‌برداری مالی» هستند.

او از طریق پیامک گفت: «بسیاری از مشکلات Copilot Designer اکنون با پادمان‌های خود ChatGPT حل شده است.

تعدادی از تولیدکنندگان تصویر چشمگیر هوش مصنوعی برای اولین بار در سال 2022 روی صحنه ظاهر شدند، از جمله نسل دوم DALL-E 2 OpenAI. این – و انتشار متعاقب آن ربات چت OpenAI ChatGPT – جرقه شیفتگی عمومی را برانگیخت که فشار تجاری را بر غول های فناوری مانند مایکروسافت و گوگل نسخه های خود را منتشر خواهند کرد.

اما بدون پادمان‌های مؤثر، این فناوری خطراتی را به همراه دارد، از جمله سهولت در ایجاد تصاویر «عمیق جعلی» مضر از شخصیت‌های سیاسی، مناطق جنگی یا برهنگی غیرموافق که به‌طور کاذب به نظر می‌رسد افراد واقعی را با چهره‌های قابل تشخیص نشان می‌دهند. گوگل به طور موقت توانایی چت ربات Gemini خود را برای ایجاد تصاویری از افراد پس از خشم نسبت به نحوه به تصویر کشیدن نژاد و قومیت، مانند پوشاندن افراد رنگین پوست در یونیفرم های نظامی دوران نازی، تعلیق کرد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا