تکنولوژی

ساندار پیچای، مدیر عامل گوگل از اشکالات “کاملا غیرقابل قبول” در برنامه هوش مصنوعی Gemini انتقاد کرد.

ساندار پیچای، مدیر اجرایی گوگل، روز سه‌شنبه باگ‌های «کاملاً غیرقابل قبول» در اپلیکیشن هوش مصنوعی Gemini خود را پس از اشتباهاتی مانند تصاویری از نیروهای نازی در جنگ جهانی دوم که از نظر قومیتی متفاوت بودند، به شدت مورد انتقاد قرار داد. این جنجال در عرض چند هفته پس از تغییر نام تجاری برجسته گوگل از هوش مصنوعی سبک ChatGPT خود به “جمینی” آغاز شد و به این برنامه در رقابت با OpenAI و پشتیبانش مایکروسافت، شهرت بی‌سابقه‌ای در محصولاتش داد.

کاربران شبکه های اجتماعی گوگل را به دلیل تصاویر نادرست تاریخی که توسط جمینی تولید شده بود، مانند سناتورهای ایالات متحده از دهه 1800، که از نظر قومی متفاوت بودند و شامل زنان می شد، مورد تمسخر و انتقاد قرار دادند.

پیچای در نامه ای به کارکنان که توسط وب سایت خبری سمافور منتشر شد، نوشت: «می خواهم به مسائل اخیر مربوط به پاسخ های متنی و تصویری مشکل دار در اپلیکیشن جمینی بپردازم.

ما اکنون در واتس اپ هستیم. کلیک پیوستن.

می‌دانم که برخی از پاسخ‌های او کاربران ما را آزار می‌دهد و تعصب نشان می‌دهد – برای روشن شدن، این کاملا غیرقابل قبول است و ما اشتباه کردیم.»

یکی از سخنگویان گوگل به خبرگزاری فرانسه تایید کرد که این نامه معتبر است.

پیچای گفت که تیم های گوگل در حال کار شبانه روزی برای رفع این مشکلات هستند، اما نگفت چه زمانی قابلیت تولید تصویر دوباره در دسترس خواهد بود.

او نوشت: “هیچ هوش مصنوعی کامل نیست، به خصوص در این مرحله نوپای توسعه صنعت، اما می دانیم که این نوار برای ما بالا است و تا زمانی که طول بکشد، به آن پایبند خواهیم بود.”

مطلب پیشنهادی:  کارکنان آمازون از «هیچ کس در امان نیست» می ترسند زیرا اخراج ها رتبه ها را تغییر می دهند

شرکت‌های فناوری مدل‌های هوش مصنوعی مولد را گام بزرگ بعدی در محاسبات می‌دانند و برای پیاده‌سازی آن‌ها در همه چیز از جستجوی اینترنتی و خودکارسازی پشتیبانی مشتری گرفته تا ایجاد موسیقی و هنر رقابت می‌کنند.

اما مدل‌های هوش مصنوعی، و نه فقط گوگل، مدت‌هاست که به دلیل تداوم تعصبات نژادی و جنسیتی در نتایج خود مورد انتقاد قرار گرفته‌اند.

گوگل هفته گذشته گفت که پاسخ های مشکل ساز جمینی نتیجه تلاش های این شرکت برای از بین بردن این سوگیری بوده است.

Prabhakar Raghavan از Google در یک پست وبلاگ نوشت Gemini برای نشان دادن افراد مختلف کالیبره شده بود، اما با درخواست‌ها در جایی که نباید تنظیم شد، و همچنین با برخی از درخواست‌های بی‌ضرر بیش از حد محتاط شد.

او گفت: «این دو مورد باعث شد که مدل در برخی موارد بیش از حد جبران کند و در برخی دیگر بیش از حد محافظه کارانه عمل کند و در نتیجه تصاویری ناجور و اشتباه ایجاد کند.

نگرانی های زیادی در مورد هوش مصنوعی از زمان موفقیت انفجاری ChatGPT بوجود آمده است.

کارشناسان و دولت‌ها هشدار داده‌اند که هوش مصنوعی خطر تحولات اقتصادی بزرگ، به‌ویژه جابجایی شغل و اطلاعات نادرست در مقیاس صنعتی را به همراه دارد که می‌تواند انتخابات را دستکاری کند و به خشونت دامن بزند.

یک چیز دیگر! HT Tech اکنون در کانال های WhatsApp است! ما را در آنجا دنبال کنید تا حتی یک به‌روزرسانی از دنیای فناوری را از دست ندهید. برای دنبال کردن کانال واتساپ HT Tech کلیک کنید اینجا برای پیوستن در حال حاضر!

مطلب پیشنهادی:  طوفان وحشتناک خورشیدی مانع از کارکرد سکوهای نفتی شد! چگونه این وحشت فنی به راه افتاد

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا