تصاویر نژادی ناقص هوش مصنوعی Google Gemini به عنوان هشداری در مورد قدرت غولهای فناوری تلقی میشود.
برای افرادی که در جشنواره فناوری مد در اینجا حضور داشتند، رسوایی که پس از انتشار تصاویر سربازان نازی سیاهپوست و نازیهای آسیایی توسط چت ربات گوگل به وجود آمد، به عنوان هشداری در مورد قدرتی که هوش مصنوعی میتواند به غولهای فناوری بدهد، تلقی میشود. ساندار پیچای، مدیر عامل گوگل، ماه گذشته خطاهای “کاملاً غیرقابل قبول” در اپلیکیشن هوش مصنوعی Gemini شرکتش را پس از اشتباهاتی مانند تصاویری از نیروهای نازی با تنوع قومیتی که آن را مجبور کرد به طور موقت کاربران را از ایجاد عکس از افراد منع کند، محکوم کرد.
کاربران شبکه های اجتماعی گوگل را به خاطر تصاویر نادرست تاریخی، مانند تصویری که یک سناتور سیاه پوست آمریکایی را در سال 1800 نشان می دهد – زمانی که اولین سناتور این چنینی تا سال 1992 انتخاب نشد، مورد تمسخر و انتقاد قرار دادند.
سرگئی برین، یکی از بنیانگذاران گوگل در یک “هکاتون” اخیر هوش مصنوعی گفت: “ما قطعاً در تولید تصویر دچار مشکل شده ایم.” و افزود که این شرکت باید Gemini را به طور کامل آزمایش می کرد.
همچنین بخوانید: مالکیت محتوا در عصر هوش مصنوعی
افرادی که در جشنواره محبوب هنر و فناوری South by Southwest در آستین مصاحبه کردند، گفتند که تصادف Gemini بر قدرت بیش از حدی که تعداد انگشت شماری از شرکتها بر پلتفرمهای هوش مصنوعی دارند تا شیوه زندگی و کار مردم را تغییر دهند، نشان میدهد.
جاشوا ویور، یک وکیل و کارآفرین فناوری، گفت: «اساساً خیلی بیدار بود.
چارلی بورگوین، مدیر عامل آزمایشگاه علمی کاربردی والکری در تگزاس گفت که گوگل به سرعت اشتباهات خود را تصحیح کرد، اما مشکل اساسی همچنان باقی است.
او اصلاح جمینی توسط گوگل را به قرار دادن چسب زخم روی زخم گلوله تشبیه کرد.
ویور خاطرنشان کرد: در حالی که گوگل مدتها فرصت تجملاتی برای تکمیل محصولات خود را داشته است، اما اکنون در حال مبارزه با یک مسابقه هوش مصنوعی با مایکروسافت، OpenAI، Anthropic و دیگران است و افزود: “آنها سریعتر از آن چیزی که می دانند چگونه حرکت کنند، حرکت می کنند.”
اشتباهاتی که در تلاش برای حساس بودن فرهنگی انجام می شود، به ویژه با توجه به شکاف های سیاسی تیره در ایالات متحده، وضعیتی که توسط پلتفرم X ایلان ماسک، که قبلا توییتر بود، تشدید شده است.
همچنین بخوانید : تعطیلی مک دونالد! بیگ مک با چند سکسکه تبدیل به فناوری بزرگ می شود
ویور گفت: «مردم در توییتر بسیار خوشحال هستند که هر اتفاق شرمآوری را که در فناوری اتفاق میافتد، جشن میگیرند.» وی افزود که واکنش به گاف نازیها «بیش از حد» بود.
با این حال، او استدلال کرد که این حادثه درجه کنترل بر اطلاعاتی را که افرادی که از ابزارهای هوش مصنوعی استفاده می کنند، زیر سوال برد.
ویور گفت، در دهه آینده، میزان اطلاعات – یا اطلاعات نادرست – ایجاد شده توسط هوش مصنوعی میتواند از میزان تولید شده توسط انسان فراتر رود، به این معنی که کسانی که پادمانهای هوش مصنوعی را کنترل میکنند تاثیر زیادی بر جهان خواهند داشت.
تعصب، تعصب
کارن پالمر، خالق برنده جایزه واقعیت ترکیبی با شرکت Interactive Films Ltd.، گفت که می تواند آینده ای را تصور کند که در آن شخصی سوار یک تاکسی ربات شود و “اگر هوش مصنوعی شما را اسکن کند و فکر کند که نقض های معلق علیه شما وجود دارد. شما به ایستگاه پلیس محلی منتقل خواهید شد، نه مقصد مورد نظر.
هوش مصنوعی بر روی کوههایی از دادهها آموزش دیده است و میتواند روی مجموعهای از وظایف، از تولید تصاویر یا صدا گرفته تا تعیین اینکه چه کسی وام دریافت میکند یا اینکه آیا یک اسکن پزشکی سرطان را تشخیص میدهد، کار کند.
اما این دادهها از دنیایی مملو از تعصبات فرهنگی، اطلاعات غلط و نابرابری اجتماعی به دست میآیند – بدون ذکر محتوای آنلاین که میتواند شامل چتهای تصادفی بین دوستان یا پستهای عمدی اغراقآمیز و تحریکآمیز باشد – و مدلهای هوش مصنوعی میتوانند این نقصها را تکرار کنند.
با Gemini، مهندسان گوگل به دنبال متعادل کردن مجدد الگوریتم ها برای ارائه نتایجی بودند که تنوع انسان را بهتر منعکس کند.
تلاش نتیجه معکوس داد.
الکس شهرستانی، وکیل فناوری، شریک مدیریت شرکت حقوقی فناوری Promise Legal، گفت: «درک این موضوع میتواند واقعاً پیچیده، ظریف و ظریف باشد.
او و دیگران بر این باورند که حتی مهندسان خوش نیتی که در آموزش هوش مصنوعی دخیل هستند، نمیتوانند تجربیات زندگی و سوگیریهای ناخودآگاه خود را در این فرآیند بیاورند.
شرکت Valkyrie's Burgoyne همچنین از فناوری های بزرگ به دلیل پنهان نگه داشتن عملکرد درونی هوش مصنوعی مولد در “جعبه های سیاه” انتقاد کرد تا کاربران نتوانند هیچ گونه سوگیری پنهانی را تشخیص دهند.
او گفت: “احتمالات نتایج بسیار فراتر از درک ما از روش شناسی است.”
کارشناسان و فعالان خواستار تنوع بیشتر در تیمهای سازنده هوش مصنوعی و ابزارهای مرتبط، و شفافیت بیشتر در مورد نحوه عملکرد آنها هستند – بهویژه زمانی که الگوریتمها درخواستهای کاربر را بازنویسی میکنند تا نتایج را «تقویت» کنند.
جیسون لوئیس از مرکز منابع برای آیندههای بومی و گروههای مرتبط در اینجا گفت که یک چالش این است که چگونه دیدگاههای جوامع متعدد و متنوع جهان را بهطور مناسب چارچوببندی کنیم.
در هوش مصنوعی بومی، جیسون با جوامع بومی دوردست کار میکند تا الگوریتمهایی طراحی کند که از دادههای آنها به صورت اخلاقی استفاده میکنند و در عین حال دیدگاههای آنها را در جهان منعکس میکنند، چیزی که او همیشه در «غرور» رهبران بزرگ فناوری نمیبیند.
او به گروهی گفت که کار خودش در تضاد با لفاظیهای دره سیلیکون است، جایی که مزخرفات از بالا به پایین وجود دارد، “اوه، ما این کار را انجام میدهیم زیرا به نفع همه بشریت خواهد بود، درست است؟”