تکنولوژی

گوگل درخواست های مربوط به انتخابات را به چت ربات Gemini خود محدود می کند

ساندار پیچای، مدیرعامل گوگل و آلفابت، در کنفرانس اندیشکده بروگل در بروکسل، بلژیک، در 20 ژانویه 2020، در مورد هوش مصنوعی صحبت می کند.

ایو هرمان | رویترز

گوگل اعلام کرد که انواع سؤالات مربوط به انتخابات را که کاربران می توانند از ربات چت Gemini خود بپرسند را محدود می کند و اضافه کرد که قبلاً تغییرات را در هند انجام داده است، جایی که رأی دهندگان در بهار امسال به پای صندوق های رای خواهند رفت.

گوگل در پست وبلاگی روز سه شنبه خود نوشت: «به دلیل احتیاط فراوان در مورد چنین موضوع مهمی، ما شروع به محدود کردن انواع سؤالات مربوط به انتخابات کرده ایم که جمینی به آنها پاسخ می دهد. ما مسئولیت خود را برای ارائه اطلاعات باکیفیت در مورد این نوع درخواست‌ها جدی می‌گیریم و دائماً برای بهبود حفاظت‌های خود تلاش می‌کنیم.»

یکی از سخنگویان گوگل به CNBC گفت که این تغییرات مطابق با رویکرد برنامه‌ریزی شده این شرکت برای انتخابات است و این شرکت محدودیت‌هایی را برای جمینی به منظور آماده‌سازی برای بسیاری از انتخابات‌هایی که در سراسر جهان در سال ۲۰۲۴ اتفاق می‌افتد و از روی احتیاط فراوان اعمال می‌کند.

این اعلامیه پس از آن منتشر شد که گوگل ماه گذشته ابزار تصویربرداری هوش مصنوعی خود را پس از یک سری بحث‌ها، از جمله نادرستی‌های تاریخی و پاسخ‌های بحث‌برانگیز، کنار گذاشت. این شرکت تولید کننده تصویر را در اوایل فوریه از طریق Gemini – مجموعه اصلی مدل‌های هوش مصنوعی گوگل – به عنوان بخشی از یک تغییر نام تجاری بزرگ معرفی کرد.

دمیس حسابیس، مدیر اجرایی DeepMind گوگل، ماه گذشته در طی یک پنل در کنفرانس کنگره جهانی موبایل در بارسلون گفت: «ما این ویژگی را آفلاین کرده‌ایم در حالی که این مشکل را برطرف می‌کنیم. ما امیدواریم که به زودی آن را در چند هفته، چند هفته آینده دوباره آنلاین کنیم.» او افزود که این محصول «آنطور که ما در نظر داشتیم کار نمی‌کند».

مطلب پیشنهادی:  عجیب و غریب! لکه ترسناک خورشیدی با دم خالدار؛ می تواند منفجر شود و طوفان خورشیدی مخربی را به سمت زمین بفرستد

این خبر همچنین در زمانی منتشر می شود که پلتفرم های فناوری در حال آماده شدن برای یک سال انتخاباتی عظیم در سراسر جهان هستند که بیش از چهار میلیارد نفر را در بیش از 40 کشور تحت تأثیر قرار می دهد. بر اساس داده های شرکت یادگیری ماشینی Clarity، افزایش محتوای تولید شده توسط هوش مصنوعی منجر به نگرانی های جدی در مورد اطلاعات نادرست مربوط به انتخابات شده است، به طوری که تعداد جعلی های عمیق تولید شده سالانه 900 درصد افزایش می یابد.

اطلاعات نادرست مربوط به انتخابات یک مشکل بزرگ از زمان مبارزات انتخاباتی ریاست جمهوری 2016 بوده است، زمانی که بازیگران روسی سعی کردند از راه های ارزان و آسان برای انتشار محتوای نادرست در پلتفرم های اجتماعی استفاده کنند. در حال حاضر، قانونگذاران حتی بیشتر نگران افزایش سریع هوش مصنوعی هستند.

جاش بکر، سناتور دموکرات کالیفرنیا ماه گذشته در مصاحبه ای به CNBC گفت: «دلیل نگرانی جدی در مورد اینکه چگونه می توان از هوش مصنوعی برای گمراه کردن رأی دهندگان در کمپین ها استفاده کرد، وجود دارد.

فناوری‌های تشخیص و واترمارکینگ مورد استفاده برای شناسایی دیپ‌فیک‌ها به اندازه کافی سریع پیشرفت نکرده‌اند. حتی اگر پلتفرم‌های پشت تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی بپذیرند که واترمارک‌های نامرئی و انواع خاصی از ابرداده‌ها را تولید کنند، راه‌هایی برای دور زدن این پادمان‌ها وجود دارد. گاهی اوقات یک اسکرین شات حتی می تواند یک آشکارساز را گمراه کند.

در ماه‌های اخیر، گوگل بر تعهد خود برای پیگیری – و سرمایه‌گذاری هنگفت – دستیاران یا نمایندگان هوش مصنوعی تاکید کرده است. این اصطلاح اغلب ابزارهایی را توصیف می کند که از چت بات ها گرفته تا دستیاران کدنویسی و سایر ابزارهای بهره وری را شامل می شود.

مطلب پیشنهادی:  رهیاب ناسا 25 سال پیش روی مریخ فرود آمد

ساندار پیچای، مدیرعامل آلفابت، در جریان فراخوان درآمد شرکت در 30 ژانویه، عوامل هوش مصنوعی را به عنوان اولویت معرفی کرد. پیچای گفت که در نهایت می‌خواهد یک عامل هوش مصنوعی ارائه دهد که بتواند وظایف بیشتر و بیشتری را برای کاربر انجام دهد، از جمله در جستجوی Google – اگرچه او گفت که “پیاده‌سازی زیادی در پیش است.” به همین ترتیب، مدیران عامل غول های فناوری از مایکروسافت گرفته تا آمازون تعهد خود را برای ساخت عوامل هوش مصنوعی به عنوان ابزارهای بهره وری مضاعف کرده اند.

سیسی هسیائو، معاون گوگل و مدیر کل Google Assistant و Bard در تماسی در ماه فوریه به خبرنگاران گفت که تغییر نام تجاری Gemini گوگل، عرضه اپلیکیشن ها و گسترش ویژگی ها اولین گام به سمت “ساخت یک دستیار هوش مصنوعی واقعی” بود.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا