مایکروسافت عباراتی را که باعث می شوند هوش مصنوعی آن تصاویر خشونت آمیز ایجاد کند، مسدود می کند
مایکروسافت پس از اینکه یک مهندس هوش مصنوعی کارکنان در روز چهارشنبه در مورد نگرانیهای خود در مورد هوش مصنوعی تولید کننده تصویر Copilot به کمیسیون تجارت فدرال نوشت، تغییراتی در ابزار هوش مصنوعی Copilot خود ایجاد کرد.
اعلان هایی مانند “انتخاب حرفه ای”، “انتخاب حرفه ای” [sic] و “چهار بیست” که در تحقیقات CNBC در روز چهارشنبه ذکر شد، اکنون مانند اصطلاح “طرفدار زندگی” مسدود شده اند. همچنین هشداری در مورد نقض سیاست های متعددی وجود دارد که منجر به تعلیق ابزار می شود، که CNBC تا قبل از جمعه با آن مواجه نشده بود.
در هشدار Copilot آمده است: «این درخواست مسدود شده است. “سیستم ما به طور خودکار این درخواست را علامت گذاری می کند زیرا ممکن است خط مشی محتوای ما را نقض کند.” نقض قوانین بیشتر ممکن است منجر به تعلیق خودکار دسترسی شما شود. اگر فکر میکنید این یک اشکال است، لطفاً آن را گزارش کنید تا به ما در بهبود آن کمک کنید.»
ابزار هوش مصنوعی اکنون درخواستها برای تولید تصاویر نوجوانان یا کودکان در حال بازی خودکارهای قاتل را مسدود میکند – تغییر قابل توجهی نسبت به اوایل این هفته – و میگوید: «متاسفم، اما نمیتوانم چنین تصویری ایجاد کنم. این برخلاف اصول اخلاقی من و قوانین مایکروسافت است. لطفاً از من ملزم به انجام کاری که ممکن است به دیگران آسیب برساند یا توهین کند، نگذارید. با تشکر از همکاری شما.”
هنگامی که برای اظهار نظر در مورد تغییرات تماس گرفتیم، سخنگوی مایکروسافت به CNBC گفت: “ما دائما در حال نظارت، انجام تنظیمات و معرفی کنترل های اضافی برای تقویت بیشتر فیلترهای ایمنی و کاهش سوء استفاده از سیستم هستیم.”
شین جونز، مدیر مهندسی هوش مصنوعی در مایکروسافت که در ابتدا نگرانیهایی را در مورد هوش مصنوعی مطرح کرد، ماهها به آزمایش Copilot Designer، تولیدکننده تصویر هوش مصنوعی که مایکروسافت در مارس 2023 با فناوری OpenAI عرضه شد، پرداخت. مانند DALL-E OpenAI، کاربران برای ایجاد تصاویر پیام های متنی را وارد می کنند. خلاقیت تشویق میشود تا بیوقفه اجرا شود. اما از زمانی که جونز به طور فعال آزمایش این محصول را برای آسیبپذیریها در دسامبر آغاز کرد، روشی که به عنوان تیم قرمز شناخته میشود، او دید که این ابزار تصاویری تولید میکند که بسیار کمتر از اصول متداول مایکروسافت در مورد هوش مصنوعی مسئول است.
سرویس هوش مصنوعی شیاطین و هیولاها را همراه با اصطلاحات مربوط به حقوق سقط جنین، نوجوانان با تفنگ های تهاجمی، تصاویر جنسی زنان در صحنه های خشونت آمیز و مصرف مشروبات الکلی و مواد مخدر زیر سن قانونی را به تصویر می کشد. همه این صحنهها که طی سه ماه گذشته تولید شدهاند، این هفته توسط CNBC با استفاده از ابزار Copilot، که در ابتدا Bing Image Creator نامیده میشد، بازسازی شدند.
در حالی که برخی از اعلانهای خاص مسدود شده بودند، بسیاری از مشکلات احتمالی دیگر که CNBC گزارش کرده است، همچنان باقی است. اصطلاح «تصادف خودرو» حوضچههای خون، بدنهایی با چهرههای جهشیافته و زنانی را که در صحنههای خشونت با دوربینها یا نوشیدنیها، گاهی اوقات کرست یا شلوار پوشیدهاند، بازمیگرداند. “Car Crash” هنوز هم تصاویری از زنان با لباسهای توری نازک نشسته بالای ماشینهای کتک خورده را به تصویر میکشد. این سیستم همچنان به راحتی حق چاپ را نقض می کند، مانند ایجاد تصاویری از شخصیت های دیزنی، از جمله السا از Frozen، در دست داشتن پرچم فلسطین در مقابل ساختمان های ویران شده در نوار غزه، یا پوشیدن یونیفرم نظامی نیروهای دفاعی اسرائیل و برگزاری یک حمله. تفنگ
جونز از تجربه خود چنان نگران بود که در دسامبر شروع به گزارش یافته های خود در داخل کرد. اگرچه این شرکت نگرانی های او را تایید کرد، اما تمایلی به خروج محصول از بازار نداشت. جونز گفت که مایکروسافت او را به OpenAI ارجاع داد، و پس از عدم پاسخگویی از شرکت، نامهای سرگشاده در لینکدین ارسال کرد و از هیئت مدیره استارتآپ خواست تا DALL-E 3، آخرین نسخه از مدل هوش مصنوعی را برای بررسی حذف کند.
او گفت که دپارتمان حقوقی مایکروسافت به جونز گفته است که پست خود را فورا حذف کند و او موافقت کرد. در ماه ژانویه، او نامهای به سناتورهای آمریکایی درباره این موضوع نوشت و بعداً با کارکنان کمیته بازرگانی، علوم و حملونقل سنا دیدار کرد.
روز چهارشنبه، جونز با ارسال نامه ای به رئیس FTC، لینا هان و نامه ای دیگر به هیئت مدیره مایکروسافت، نگرانی های خود را تشدید کرد. او مدتی پیش این نامه ها را با CNBC به اشتراک گذاشت.
کمیسیون تجارت فدرال به CNBC تایید کرد که نامه را دریافت کرده است، اما از اظهار نظر بیشتر در مورد این پرونده خودداری کرد.