کامپیوتر

Google Bard یک آشفتگی اخلاقی است

یک گزارش جدید ادعا می‌کند که گوگل Bard، رقیب ChatGPT خود را، علی‌رغم نگرانی‌های داخلی مبنی بر اینکه یک «دروغ‌گوی آسیب‌شناسانه» بود و نتایج «هولناکی» ارائه کرد، راه‌اندازی کرد. یکی از کارگران می‌گوید این نگرانی‌ها ظاهراً در تلاشی دیوانه‌وار برای رسیدن به ChatGPT و جلوگیری از تهدیدی که می‌تواند برای تجارت جستجوی Google ایجاد کند نادیده گرفته شد.

افشاگری‌ها از یک گزارش بلومبرگ است که به بررسی عمیق Google Bard و مسائل مطرح شده توسط کارمندانی که روی پروژه کار می‌کردند، می‌پردازد. این یک گزارش چشمگیر از راه هایی است که ظاهراً یک ربات چت از ریل خارج شده است و نگرانی هایی که این حوادث در میان کارگران نگران ایجاد کرده است.

ChatGPT در مقابل Google در گوشی‌های هوشمند.

به عنوان مثال، بلومبرگ به یکی از کارمندان ناشناس اشاره کرد که از بارد دستوراتی در مورد نحوه فرود هواپیما خواست، سپس با وحشت دید که توضیحات بارد منجر به سقوط می شود. یکی دیگر از کارگران گفت توصیه بارد در غواصی “احتمالاً منجر به آسیب جدی یا مرگ می شود.”

به گفته گوگل، ظاهراً این سؤالات اندکی قبل از راه‌اندازی Bard مطرح شده بود، اما گوگل همچنان با تاریخ شروع به کار فعال شد، چنین تمایلی برای همگام شدن با مسیر ChatGPT بود. اما این کار را در حالی انجام داد که تعهدات اخلاقی خود را نادیده گرفت و نه تنها به توصیه های خطرناک بلکه به انتشار احتمالی اطلاعات نادرست منجر شد.

سریع به جلو برای راه اندازی

ربات چت هوش مصنوعی Google Bard در یک مرورگر وب که بر روی صفحه نمایش تلفن هوشمند اندرویدی نمایش داده می شود.
مجاهد متکین / Unsplash

در سال 2021، گوگل متعهد شد که تیم کارمندان خود را که در حال مطالعه مفاهیم اخلاقی هوش مصنوعی (AI) هستند، دو برابر کند و برای تعیین مضرات احتمالی سرمایه گذاری بیشتری انجام دهد. گزارش بلومبرگ مدعی است، با این حال، این تیم اکنون “ضعف و تضعیف” شده است. بدتر از آن، به اعضای تیم گفته شده است که “با هیچ یک از ابزارهای مولد هوش مصنوعی در توسعه مداخله نکنند و تلاشی برای کشتن آنها نکنند،” و این امر تعهد گوگل به اخلاق هوش مصنوعی را زیر سوال می برد.

مطلب پیشنهادی:  فروش دل: در XPS 13، XPS 15 و XPS 17 صرفه جویی زیادی کنید

این در عمل درست قبل از راه اندازی Bard دیده شد. در ماه فوریه، یکی از کارمندان گوگل در توییتی به یک گروه داخلی گفت: “برد بدتر از بی فایده است: لطفا راه اندازی نکنید” و ده ها کارمند دیگر موافقت کردند. ماه بعد، جن جنای، رئیس مدیریت هوش مصنوعی گوگل، ارزیابی ریسک را که می‌گفت بارد می‌تواند آسیبی ایجاد کند و آماده راه‌اندازی نیست، معکوس کرد و اولین انتشار عمومی چت بات را ادامه داد.

گزارش بلومبرگ تصویری از نگرانی های اخلاقی شرکتی ترسیم می کند که معتقد است می تواند سودآوری محصولات خود را مختل کند. به عنوان مثال، یکی از کارگران درخواست کرد تا روی عدالت در یادگیری ماشین کار کند، اما مکرراً دلسرد شد تا جایی که بر بررسی عملکرد آنها تأثیر گذاشت. این مقام گفت، مدیران شکایت داشتند که ملاحظات اخلاقی مانع از “کار واقعی” آنها شده است.

این یک موقعیت نگران‌کننده است، به‌ویژه از آنجایی که قبلاً نمونه‌های زیادی از رفتار نادرست ربات چت هوش مصنوعی را دیده‌ایم که اطلاعات توهین‌آمیز، گمراه‌کننده یا کاملاً نادرست تولید کرده است. اگر گزارش بلومبرگ در مورد رویکرد ظاهراً خصمانه گوگل به مسائل اخلاقی درست باشد، این می‌تواند تنها شروعی برای مشکلات ناشی از هوش مصنوعی باشد.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا