شرکت مادر گوگل، آلفابت، به کارمندان توصیه می کند که مراقب چت ربات های هوش مصنوعی باشند
آلفابت به کارمندان خود گفته است که اطلاعات محرمانه را در Bard، چت ربات تولید کننده هوش مصنوعی که توسط گوگل ساخته و اداره می شود، وارد نکنند.
رویترز روز پنجشنبه گزارش داد که هشدار این شرکت در مورد سایر رباتهای چت مانند ChatGPT مایکروسافت با پشتیبانی OpenAI نیز اعمال میشود.
چت رباتهای مجهز به هوش مصنوعی در ماههای اخیر به دلیل توانایی چشمگیرشان در مکالمه انسانمانند، نوشتن مقالهها و گزارشها و حتی تستهای آکادمیک ACE، علاقه زیادی به خود جلب کردهاند.
اما آلفابت نگران است که کارمندانش به طور ناخواسته اطلاعات داخلی را از طریق ابزارها درز می کنند.
در کار در حال انجام برای اصلاح و بهبود فناوری پیشرفته هوش مصنوعی، بازبینان می توانند مکالمات کاربران با چت بات ها را بخوانند، که خطری برای حریم خصوصی شخصی و همچنین افشای احتمالی اسرار تجاری است، که به نظر می رسد آلفابت به طور خاص نگران کننده است. در باره.
علاوه بر این، رباتهای چت تا حدی با استفاده از پیامهای متنی کاربران آموزش داده میشوند، بنابراین با اعلانهای خاص، این ابزار به طور بالقوه میتواند اطلاعات محرمانهای را که در آن مکالمات دریافت میکند برای اعضای عمومی تکرار کند.
مانند ChatGPT، Bard اکنون به صورت رایگان در دسترس است تا هر کسی آن را امتحان کند. در صفحه وب خود به کاربران هشدار می دهد: “لطفاً اطلاعاتی را که می تواند برای شناسایی شما یا دیگران در مکالمات خود با بارد استفاده شود، وارد نکنید.”
این میافزاید که Google «مکالمات با Bard، اطلاعات مربوط به استفاده از محصول، اطلاعات مربوط به موقعیت مکانی و بازخورد شما» را جمعآوری میکند و از دادهها برای بهبود محصولات و خدمات Google که شامل Bard میشود، استفاده میکند.
گوگل می گوید فعالیت Bard را تا 18 ماه ذخیره می کند، اگرچه کاربر می تواند این مدت را به 3 یا 36 ماه در حساب Google خود تغییر دهد.
او می افزاید که به عنوان یک اقدام حفظ حریم خصوصی، مکالمات بارد قبل از اینکه فرد بتواند آنها را ببیند از یک حساب Google قطع می شود.
رویترز گفت در حالی که هشدار آلفابت مدتی است برقرار بوده است، اخیراً آن را گسترش داده و به کارمندان خود گفته است از استفاده از کدهای کامپیوتری دقیق تولید شده توسط چت بات ها خودداری کنند. این شرکت به خبرگزاری گفت که Bard گاهی اوقات میتواند «پیشنهادات کد ناخواسته» را ارائه دهد، اگرچه تکرار فعلی ابزار هنوز به عنوان یک کمک برنامهنویسی قابل اجرا در نظر گرفته میشود.
آلفابت تنها شرکتی نیست که به کارمندان در مورد خطرات حریم خصوصی و امنیتی مرتبط با استفاده از چت بات ها هشدار می دهد. سامسونگ اخیراً دستورالعمل مشابهی را برای کارمندان خود صادر کرده است، زیرا تعدادی از آنها داده های حساس مربوط به نیمه هادی ها را به ChatGPT ارسال کردند و اپل و آمازون، در میان دیگران، نیز ظاهراً سیاست های داخلی مشابهی را اجرا کرده اند.
توصیه های سردبیران