ساندار پیچای، مدیر عامل گوگل از اشکالات “کاملا غیرقابل قبول” در برنامه هوش مصنوعی Gemini انتقاد کرد.
ساندار پیچای، مدیر اجرایی گوگل، روز سهشنبه باگهای «کاملاً غیرقابل قبول» در اپلیکیشن هوش مصنوعی Gemini خود را پس از اشتباهاتی مانند تصاویری از نیروهای نازی در جنگ جهانی دوم که از نظر قومیتی متفاوت بودند، به شدت مورد انتقاد قرار داد. این جنجال در عرض چند هفته پس از تغییر نام تجاری برجسته گوگل از هوش مصنوعی سبک ChatGPT خود به “جمینی” آغاز شد و به این برنامه در رقابت با OpenAI و پشتیبانش مایکروسافت، شهرت بیسابقهای در محصولاتش داد.
کاربران شبکه های اجتماعی گوگل را به دلیل تصاویر نادرست تاریخی که توسط جمینی تولید شده بود، مانند سناتورهای ایالات متحده از دهه 1800، که از نظر قومی متفاوت بودند و شامل زنان می شد، مورد تمسخر و انتقاد قرار دادند.
پیچای در نامه ای به کارکنان که توسط وب سایت خبری سمافور منتشر شد، نوشت: «می خواهم به مسائل اخیر مربوط به پاسخ های متنی و تصویری مشکل دار در اپلیکیشن جمینی بپردازم.
ما اکنون در واتس اپ هستیم. کلیک پیوستن.
میدانم که برخی از پاسخهای او کاربران ما را آزار میدهد و تعصب نشان میدهد – برای روشن شدن، این کاملا غیرقابل قبول است و ما اشتباه کردیم.»
یکی از سخنگویان گوگل به خبرگزاری فرانسه تایید کرد که این نامه معتبر است.
پیچای گفت که تیم های گوگل در حال کار شبانه روزی برای رفع این مشکلات هستند، اما نگفت چه زمانی قابلیت تولید تصویر دوباره در دسترس خواهد بود.
او نوشت: “هیچ هوش مصنوعی کامل نیست، به خصوص در این مرحله نوپای توسعه صنعت، اما می دانیم که این نوار برای ما بالا است و تا زمانی که طول بکشد، به آن پایبند خواهیم بود.”
شرکتهای فناوری مدلهای هوش مصنوعی مولد را گام بزرگ بعدی در محاسبات میدانند و برای پیادهسازی آنها در همه چیز از جستجوی اینترنتی و خودکارسازی پشتیبانی مشتری گرفته تا ایجاد موسیقی و هنر رقابت میکنند.
اما مدلهای هوش مصنوعی، و نه فقط گوگل، مدتهاست که به دلیل تداوم تعصبات نژادی و جنسیتی در نتایج خود مورد انتقاد قرار گرفتهاند.
گوگل هفته گذشته گفت که پاسخ های مشکل ساز جمینی نتیجه تلاش های این شرکت برای از بین بردن این سوگیری بوده است.
Prabhakar Raghavan از Google در یک پست وبلاگ نوشت Gemini برای نشان دادن افراد مختلف کالیبره شده بود، اما با درخواستها در جایی که نباید تنظیم شد، و همچنین با برخی از درخواستهای بیضرر بیش از حد محتاط شد.
او گفت: «این دو مورد باعث شد که مدل در برخی موارد بیش از حد جبران کند و در برخی دیگر بیش از حد محافظه کارانه عمل کند و در نتیجه تصاویری ناجور و اشتباه ایجاد کند.
نگرانی های زیادی در مورد هوش مصنوعی از زمان موفقیت انفجاری ChatGPT بوجود آمده است.
کارشناسان و دولتها هشدار دادهاند که هوش مصنوعی خطر تحولات اقتصادی بزرگ، بهویژه جابجایی شغل و اطلاعات نادرست در مقیاس صنعتی را به همراه دارد که میتواند انتخابات را دستکاری کند و به خشونت دامن بزند.
یک چیز دیگر! HT Tech اکنون در کانال های WhatsApp است! ما را در آنجا دنبال کنید تا حتی یک بهروزرسانی از دنیای فناوری را از دست ندهید. برای دنبال کردن کانال واتساپ HT Tech کلیک کنید اینجا برای پیوستن در حال حاضر!