کامپیوتر

شرکت مادر گوگل، آلفابت، به کارمندان توصیه می کند که مراقب چت ربات های هوش مصنوعی باشند


آلفابت به کارمندان خود گفته است که اطلاعات محرمانه را در Bard، چت ربات تولید کننده هوش مصنوعی که توسط گوگل ساخته و اداره می شود، وارد نکنند.

رویترز روز پنجشنبه گزارش داد که هشدار این شرکت در مورد سایر ربات‌های چت مانند ChatGPT مایکروسافت با پشتیبانی OpenAI نیز اعمال می‌شود.

چت ربات‌های مجهز به هوش مصنوعی در ماه‌های اخیر به دلیل توانایی چشمگیرشان در مکالمه انسان‌مانند، نوشتن مقاله‌ها و گزارش‌ها و حتی تست‌های آکادمیک ACE، علاقه زیادی به خود جلب کرده‌اند.

اما آلفابت نگران است که کارمندانش به طور ناخواسته اطلاعات داخلی را از طریق ابزارها درز می کنند.

در کار در حال انجام برای اصلاح و بهبود فناوری پیشرفته هوش مصنوعی، بازبینان می توانند مکالمات کاربران با چت بات ها را بخوانند، که خطری برای حریم خصوصی شخصی و همچنین افشای احتمالی اسرار تجاری است، که به نظر می رسد آلفابت به طور خاص نگران کننده است. در باره.

علاوه بر این، ربات‌های چت تا حدی با استفاده از پیام‌های متنی کاربران آموزش داده می‌شوند، بنابراین با اعلان‌های خاص، این ابزار به طور بالقوه می‌تواند اطلاعات محرمانه‌ای را که در آن مکالمات دریافت می‌کند برای اعضای عمومی تکرار کند.

مانند ChatGPT، Bard اکنون به صورت رایگان در دسترس است تا هر کسی آن را امتحان کند. در صفحه وب خود به کاربران هشدار می دهد: “لطفاً اطلاعاتی را که می تواند برای شناسایی شما یا دیگران در مکالمات خود با بارد استفاده شود، وارد نکنید.”

این می‌افزاید که Google «مکالمات با Bard، اطلاعات مربوط به استفاده از محصول، اطلاعات مربوط به موقعیت مکانی و بازخورد شما» را جمع‌آوری می‌کند و از داده‌ها برای بهبود محصولات و خدمات Google که شامل Bard می‌شود، استفاده می‌کند.

مطلب پیشنهادی:  Apple Vision Pro 2: قیمت شایعه شده، ویژگی ها و Vision ارزان تر

گوگل می گوید فعالیت Bard را تا 18 ماه ذخیره می کند، اگرچه کاربر می تواند این مدت را به 3 یا 36 ماه در حساب Google خود تغییر دهد.

او می افزاید که به عنوان یک اقدام حفظ حریم خصوصی، مکالمات بارد قبل از اینکه فرد بتواند آنها را ببیند از یک حساب Google قطع می شود.

رویترز گفت در حالی که هشدار آلفابت مدتی است برقرار بوده است، اخیراً آن را گسترش داده و به کارمندان خود گفته است از استفاده از کدهای کامپیوتری دقیق تولید شده توسط چت بات ها خودداری کنند. این شرکت به خبرگزاری گفت که Bard گاهی اوقات می‌تواند «پیشنهادات کد ناخواسته» را ارائه دهد، اگرچه تکرار فعلی ابزار هنوز به عنوان یک کمک برنامه‌نویسی قابل اجرا در نظر گرفته می‌شود.

آلفابت تنها شرکتی نیست که به کارمندان در مورد خطرات حریم خصوصی و امنیتی مرتبط با استفاده از چت بات ها هشدار می دهد. سامسونگ اخیراً دستورالعمل مشابهی را برای کارمندان خود صادر کرده است، زیرا تعدادی از آنها داده های حساس مربوط به نیمه هادی ها را به ChatGPT ارسال کردند و اپل و آمازون، در میان دیگران، نیز ظاهراً سیاست های داخلی مشابهی را اجرا کرده اند.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا