Google Bard یک آشفتگی اخلاقی است
یک گزارش جدید ادعا میکند که گوگل Bard، رقیب ChatGPT خود را، علیرغم نگرانیهای داخلی مبنی بر اینکه یک «دروغگوی آسیبشناسانه» بود و نتایج «هولناکی» ارائه کرد، راهاندازی کرد. یکی از کارگران میگوید این نگرانیها ظاهراً در تلاشی دیوانهوار برای رسیدن به ChatGPT و جلوگیری از تهدیدی که میتواند برای تجارت جستجوی Google ایجاد کند نادیده گرفته شد.
افشاگریها از یک گزارش بلومبرگ است که به بررسی عمیق Google Bard و مسائل مطرح شده توسط کارمندانی که روی پروژه کار میکردند، میپردازد. این یک گزارش چشمگیر از راه هایی است که ظاهراً یک ربات چت از ریل خارج شده است و نگرانی هایی که این حوادث در میان کارگران نگران ایجاد کرده است.
به عنوان مثال، بلومبرگ به یکی از کارمندان ناشناس اشاره کرد که از بارد دستوراتی در مورد نحوه فرود هواپیما خواست، سپس با وحشت دید که توضیحات بارد منجر به سقوط می شود. یکی دیگر از کارگران گفت توصیه بارد در غواصی “احتمالاً منجر به آسیب جدی یا مرگ می شود.”
به گفته گوگل، ظاهراً این سؤالات اندکی قبل از راهاندازی Bard مطرح شده بود، اما گوگل همچنان با تاریخ شروع به کار فعال شد، چنین تمایلی برای همگام شدن با مسیر ChatGPT بود. اما این کار را در حالی انجام داد که تعهدات اخلاقی خود را نادیده گرفت و نه تنها به توصیه های خطرناک بلکه به انتشار احتمالی اطلاعات نادرست منجر شد.
سریع به جلو برای راه اندازی
در سال 2021، گوگل متعهد شد که تیم کارمندان خود را که در حال مطالعه مفاهیم اخلاقی هوش مصنوعی (AI) هستند، دو برابر کند و برای تعیین مضرات احتمالی سرمایه گذاری بیشتری انجام دهد. گزارش بلومبرگ مدعی است، با این حال، این تیم اکنون “ضعف و تضعیف” شده است. بدتر از آن، به اعضای تیم گفته شده است که “با هیچ یک از ابزارهای مولد هوش مصنوعی در توسعه مداخله نکنند و تلاشی برای کشتن آنها نکنند،” و این امر تعهد گوگل به اخلاق هوش مصنوعی را زیر سوال می برد.
این در عمل درست قبل از راه اندازی Bard دیده شد. در ماه فوریه، یکی از کارمندان گوگل در توییتی به یک گروه داخلی گفت: “برد بدتر از بی فایده است: لطفا راه اندازی نکنید” و ده ها کارمند دیگر موافقت کردند. ماه بعد، جن جنای، رئیس مدیریت هوش مصنوعی گوگل، ارزیابی ریسک را که میگفت بارد میتواند آسیبی ایجاد کند و آماده راهاندازی نیست، معکوس کرد و اولین انتشار عمومی چت بات را ادامه داد.
گزارش بلومبرگ تصویری از نگرانی های اخلاقی شرکتی ترسیم می کند که معتقد است می تواند سودآوری محصولات خود را مختل کند. به عنوان مثال، یکی از کارگران درخواست کرد تا روی عدالت در یادگیری ماشین کار کند، اما مکرراً دلسرد شد تا جایی که بر بررسی عملکرد آنها تأثیر گذاشت. این مقام گفت، مدیران شکایت داشتند که ملاحظات اخلاقی مانع از “کار واقعی” آنها شده است.
این یک موقعیت نگرانکننده است، بهویژه از آنجایی که قبلاً نمونههای زیادی از رفتار نادرست ربات چت هوش مصنوعی را دیدهایم که اطلاعات توهینآمیز، گمراهکننده یا کاملاً نادرست تولید کرده است. اگر گزارش بلومبرگ در مورد رویکرد ظاهراً خصمانه گوگل به مسائل اخلاقی درست باشد، این میتواند تنها شروعی برای مشکلات ناشی از هوش مصنوعی باشد.
توصیه های سردبیران