تکنولوژی

تصاویر نژادی ناقص هوش مصنوعی Google Gemini به عنوان هشداری در مورد قدرت غول‌های فناوری تلقی می‌شود.

برای افرادی که در جشنواره فناوری مد در اینجا حضور داشتند، رسوایی که پس از انتشار تصاویر سربازان نازی سیاه‌پوست و نازی‌های آسیایی توسط چت ربات گوگل به وجود آمد، به عنوان هشداری در مورد قدرتی که هوش مصنوعی می‌تواند به غول‌های فناوری بدهد، تلقی می‌شود. ساندار پیچای، مدیر عامل گوگل، ماه گذشته خطاهای “کاملاً غیرقابل قبول” در اپلیکیشن هوش مصنوعی Gemini شرکتش را پس از اشتباهاتی مانند تصاویری از نیروهای نازی با تنوع قومیتی که آن را مجبور کرد به طور موقت کاربران را از ایجاد عکس از افراد منع کند، محکوم کرد.

کاربران شبکه های اجتماعی گوگل را به خاطر تصاویر نادرست تاریخی، مانند تصویری که یک سناتور سیاه پوست آمریکایی را در سال 1800 نشان می دهد – زمانی که اولین سناتور این چنینی تا سال 1992 انتخاب نشد، مورد تمسخر و انتقاد قرار دادند.

سرگئی برین، یکی از بنیانگذاران گوگل در یک “هکاتون” اخیر هوش مصنوعی گفت: “ما قطعاً در تولید تصویر دچار مشکل شده ایم.” و افزود که این شرکت باید Gemini را به طور کامل آزمایش می کرد.

همچنین بخوانید: مالکیت محتوا در عصر هوش مصنوعی

افرادی که در جشنواره محبوب هنر و فناوری South by Southwest در آستین مصاحبه کردند، گفتند که تصادف Gemini بر قدرت بیش از حدی که تعداد انگشت شماری از شرکت‌ها بر پلتفرم‌های هوش مصنوعی دارند تا شیوه زندگی و کار مردم را تغییر دهند، نشان می‌دهد.

جاشوا ویور، یک وکیل و کارآفرین فناوری، گفت: «اساساً خیلی بیدار بود.

چارلی بورگوین، مدیر عامل آزمایشگاه علمی کاربردی والکری در تگزاس گفت که گوگل به سرعت اشتباهات خود را تصحیح کرد، اما مشکل اساسی همچنان باقی است.

مطلب پیشنهادی:  شکست ناسا به عنوان کاوشگر خصوصی ماه ایالات متحده پس از "از دست دادن بحرانی" سوخت با شکست مواجه می شود

او اصلاح جمینی توسط گوگل را به قرار دادن چسب زخم روی زخم گلوله تشبیه کرد.

ویور خاطرنشان کرد: در حالی که گوگل مدت‌ها فرصت تجملاتی برای تکمیل محصولات خود را داشته است، اما اکنون در حال مبارزه با یک مسابقه هوش مصنوعی با مایکروسافت، OpenAI، Anthropic و دیگران است و افزود: “آنها سریعتر از آن چیزی که می دانند چگونه حرکت کنند، حرکت می کنند.”

اشتباهاتی که در تلاش برای حساس بودن فرهنگی انجام می شود، به ویژه با توجه به شکاف های سیاسی تیره در ایالات متحده، وضعیتی که توسط پلتفرم X ایلان ماسک، که قبلا توییتر بود، تشدید شده است.

همچنین بخوانید : تعطیلی مک دونالد! بیگ مک با چند سکسکه تبدیل به فناوری بزرگ می شود

ویور گفت: «مردم در توییتر بسیار خوشحال هستند که هر اتفاق شرم‌آوری را که در فناوری اتفاق می‌افتد، جشن می‌گیرند.» وی افزود که واکنش به گاف نازی‌ها «بیش از حد» بود.

با این حال، او استدلال کرد که این حادثه درجه کنترل بر اطلاعاتی را که افرادی که از ابزارهای هوش مصنوعی استفاده می کنند، زیر سوال برد.

ویور گفت، در دهه آینده، میزان اطلاعات – یا اطلاعات نادرست – ایجاد شده توسط هوش مصنوعی می‌تواند از میزان تولید شده توسط انسان فراتر رود، به این معنی که کسانی که پادمان‌های هوش مصنوعی را کنترل می‌کنند تاثیر زیادی بر جهان خواهند داشت.

تعصب، تعصب

کارن پالمر، خالق برنده جایزه واقعیت ترکیبی با شرکت Interactive Films Ltd.، گفت که می تواند آینده ای را تصور کند که در آن شخصی سوار یک تاکسی ربات شود و “اگر هوش مصنوعی شما را اسکن کند و فکر کند که نقض های معلق علیه شما وجود دارد. شما به ایستگاه پلیس محلی منتقل خواهید شد، نه مقصد مورد نظر.

مطلب پیشنهادی:  فعالیت خورشیدی خورشید تا 2 سال دیگر به اوج خود می رسد و می تواند باعث "آخرالزمان اینترنت" شود

هوش مصنوعی بر روی کوه‌هایی از داده‌ها آموزش دیده است و می‌تواند روی مجموعه‌ای از وظایف، از تولید تصاویر یا صدا گرفته تا تعیین اینکه چه کسی وام دریافت می‌کند یا اینکه آیا یک اسکن پزشکی سرطان را تشخیص می‌دهد، کار کند.

اما این داده‌ها از دنیایی مملو از تعصبات فرهنگی، اطلاعات غلط و نابرابری اجتماعی به دست می‌آیند – بدون ذکر محتوای آنلاین که می‌تواند شامل چت‌های تصادفی بین دوستان یا پست‌های عمدی اغراق‌آمیز و تحریک‌آمیز باشد – و مدل‌های هوش مصنوعی می‌توانند این نقص‌ها را تکرار کنند.

با Gemini، مهندسان گوگل به دنبال متعادل کردن مجدد الگوریتم ها برای ارائه نتایجی بودند که تنوع انسان را بهتر منعکس کند.

تلاش نتیجه معکوس داد.

الکس شهرستانی، وکیل فناوری، شریک مدیریت شرکت حقوقی فناوری Promise Legal، گفت: «درک این موضوع می‌تواند واقعاً پیچیده، ظریف و ظریف باشد.

او و دیگران بر این باورند که حتی مهندسان خوش نیتی که در آموزش هوش مصنوعی دخیل هستند، نمی‌توانند تجربیات زندگی و سوگیری‌های ناخودآگاه خود را در این فرآیند بیاورند.

شرکت Valkyrie's Burgoyne همچنین از فناوری های بزرگ به دلیل پنهان نگه داشتن عملکرد درونی هوش مصنوعی مولد در “جعبه های سیاه” انتقاد کرد تا کاربران نتوانند هیچ گونه سوگیری پنهانی را تشخیص دهند.

او گفت: “احتمالات نتایج بسیار فراتر از درک ما از روش شناسی است.”

کارشناسان و فعالان خواستار تنوع بیشتر در تیم‌های سازنده هوش مصنوعی و ابزارهای مرتبط، و شفافیت بیشتر در مورد نحوه عملکرد آنها هستند – به‌ویژه زمانی که الگوریتم‌ها درخواست‌های کاربر را بازنویسی می‌کنند تا نتایج را «تقویت» کنند.

مطلب پیشنهادی:  چرا آمازون خدمات را برای روز پرایم در کانون توجه قرار داد؟

جیسون لوئیس از مرکز منابع برای آینده‌های بومی و گروه‌های مرتبط در اینجا گفت که یک چالش این است که چگونه دیدگاه‌های جوامع متعدد و متنوع جهان را به‌طور مناسب چارچوب‌بندی کنیم.

در هوش مصنوعی بومی، جیسون با جوامع بومی دوردست کار می‌کند تا الگوریتم‌هایی طراحی کند که از داده‌های آن‌ها به صورت اخلاقی استفاده می‌کنند و در عین حال دیدگاه‌های آن‌ها را در جهان منعکس می‌کنند، چیزی که او همیشه در «غرور» رهبران بزرگ فناوری نمی‌بیند.

او به گروهی گفت که کار خودش در تضاد با لفاظی‌های دره سیلیکون است، جایی که مزخرفات از بالا به پایین وجود دارد، “اوه، ما این کار را انجام می‌دهیم زیرا به نفع همه بشریت خواهد بود، درست است؟”

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا