سامسونگ پس از مشاهده نشت دادههای ChatGPT، کارمندان خود را از استفاده از هوش مصنوعی منع میکند
شرکت سامسونگ الکترونیک پس از اینکه متوجه شدند کارکنان کدهای حساسی را روی پلتفرم آپلود کرده اند و از گسترش چنین فناوری در محل کار جلوگیری می کند، کارمندان را از استفاده از ابزارهای مولد هوش مصنوعی مانند ChatGPT منع کرد.
این شرکت مستقر در سوون در کره جنوبی روز دوشنبه در یادداشتی که توسط بلومبرگ بررسی شد، به کارکنان یکی از بزرگترین بخش های خود از سیاست جدید اطلاع داد. بر اساس این سند، این شرکت نگران است که دادههای ارسال شده به چنین پلتفرمهای هوش مصنوعی، از جمله Google Bard و Bing، در سرورهای خارجی ذخیره میشوند که بازیابی و حذف آن را دشوار میکند و ممکن است در نهایت برای کاربران دیگر افشا شود.
این شرکت ماه گذشته یک نظرسنجی در مورد استفاده داخلی از ابزارهای هوش مصنوعی انجام داد و گفت 65 درصد از پاسخ دهندگان معتقد بودند که چنین خدماتی یک خطر امنیتی است. بر اساس این یادداشت، در اوایل ماه آوریل، مهندسان سامسونگ به طور تصادفی کد منبع داخلی را با آپلود آن در ChatGPT فاش کردند. معلوم نیست این اطلاعات چیست و یکی از نمایندگان سامسونگ از اظهار نظر خودداری کرد.
سامسونگ به کارکنان گفت: «علاقه به پلتفرمهای هوش مصنوعی مانند ChatGPT در داخل و خارج در حال افزایش است. “در حالی که این علاقه بر کاربرد و اثربخشی این پلتفرم ها متمرکز شده است، نگرانی های فزاینده ای در مورد خطرات امنیتی ارائه شده توسط هوش مصنوعی مولد نیز وجود دارد.”
سامسونگ جدیدترین شرکت بزرگی است که نسبت به این فناوری ابراز نگرانی کرده است. در ماه فوریه، تنها چند ماه پس از آن که خدمات ربات چت OpenAI موجی از علاقه به این فناوری را برانگیخت، برخی از بانک های وال استریت از جمله JPMorgan Chase & Co.، Bank of America Corp. و شرکت سیتی گروپ استفاده از آن را یا ممنوع یا محدود کرده است. ایتالیا همچنین استفاده از ChatGPT را به دلیل نگرانی های حفظ حریم خصوصی ممنوع کرده است، اگرچه در روزهای اخیر موضع خود را تغییر داده است.
قوانین جدید سامسونگ استفاده از سیستم های تولید کننده هوش مصنوعی را در رایانه ها، تبلت ها و تلفن های شرکت و همچنین در شبکه های داخلی ممنوع می کند. آنها بر دستگاه های این شرکت که به مصرف کنندگان فروخته می شوند، مانند تلفن های هوشمند اندرویدی و لپ تاپ های ویندوزی تأثیری نمی گذارند.
سامسونگ از کارمندانی که از ChatGPT و سایر ابزارها در دستگاههای شخصی استفاده میکنند، خواسته است که اطلاعات مربوط به شرکت یا دادههای شخصی که میتواند مالکیت معنوی آن را فاش کند، ارسال نکنند. او هشدار داد که نقض سیاست های جدید می تواند منجر به اخراج شود.
سامسونگ در یادداشت میگوید: «ما از شما میخواهیم که با جدیت به دستورالعملهای امنیتی ما پایبند باشید و عدم رعایت آنها ممکن است منجر به نقض یا به خطر افتادن اطلاعات شرکت شود که منجر به اقدامات انضباطی تا پایان کار میشود».
در همین حال، این شرکت در حال ساخت ابزارهای هوش مصنوعی داخلی خود برای ترجمه و خلاصه سازی اسناد و همچنین توسعه نرم افزار است. همچنین در حال کار بر روی راه هایی برای جلوگیری از بارگذاری اطلاعات حساس شرکت در سرویس های خارجی است. ماه گذشته، ChatGPT یک حالت “ناشناس” را اضافه کرد که به کاربران اجازه می دهد تا از چت های خود برای آموزش مدل های هوش مصنوعی جلوگیری کنند.
در این یادداشت آمده است: “دفتر مرکزی در حال بررسی اقدامات امنیتی برای ایجاد محیطی امن برای استفاده ایمن از هوش مصنوعی مولد برای افزایش بهره وری و کارایی کارکنان است.” با این حال، تا زمانی که این اقدامات آماده شود، استفاده از هوش مصنوعی مولد را به طور موقت محدود می کنیم.