تکنولوژی

سامسونگ پس از مشاهده نشت داده‌های ChatGPT، کارمندان خود را از استفاده از هوش مصنوعی منع می‌کند

شرکت سامسونگ الکترونیک پس از اینکه متوجه شدند کارکنان کدهای حساسی را روی پلتفرم آپلود کرده اند و از گسترش چنین فناوری در محل کار جلوگیری می کند، کارمندان را از استفاده از ابزارهای مولد هوش مصنوعی مانند ChatGPT منع کرد.

این شرکت مستقر در سوون در کره جنوبی روز دوشنبه در یادداشتی که توسط بلومبرگ بررسی شد، به کارکنان یکی از بزرگترین بخش های خود از سیاست جدید اطلاع داد. بر اساس این سند، این شرکت نگران است که داده‌های ارسال شده به چنین پلتفرم‌های هوش مصنوعی، از جمله Google Bard و Bing، در سرورهای خارجی ذخیره می‌شوند که بازیابی و حذف آن را دشوار می‌کند و ممکن است در نهایت برای کاربران دیگر افشا شود.

این شرکت ماه گذشته یک نظرسنجی در مورد استفاده داخلی از ابزارهای هوش مصنوعی انجام داد و گفت 65 درصد از پاسخ دهندگان معتقد بودند که چنین خدماتی یک خطر امنیتی است. بر اساس این یادداشت، در اوایل ماه آوریل، مهندسان سامسونگ به طور تصادفی کد منبع داخلی را با آپلود آن در ChatGPT فاش کردند. معلوم نیست این اطلاعات شامل چه مواردی است.

یکی از نمایندگان سامسونگ تأیید کرد که یادداشتی در هفته گذشته ارسال شد که استفاده از خدمات هوش مصنوعی مولد را ممنوع می کرد.

سامسونگ به کارکنان گفت: «علاقه به پلتفرم‌های هوش مصنوعی مانند ChatGPT در داخل و خارج در حال افزایش است. “در حالی که این علاقه بر کاربرد و اثربخشی این پلتفرم ها متمرکز شده است، نگرانی های فزاینده ای در مورد خطرات امنیتی ارائه شده توسط هوش مصنوعی مولد نیز وجود دارد.”

مطلب پیشنهادی:  رئیس مایکروسافت خواهان آموزش بیشتر برای کارگران برای مبارزه با تغییرات آب و هوایی است

سامسونگ جدیدترین شرکت بزرگی است که نسبت به این فناوری ابراز نگرانی کرده است. در ماه فوریه، تنها چند ماه پس از آن که خدمات ربات چت OpenAI موجی از علاقه به این فناوری را برانگیخت، برخی از بانک های وال استریت از جمله JPMorgan Chase & Co.، Bank of America Corp. و شرکت سیتی گروپ استفاده از آن را یا ممنوع یا محدود کرده است. ایتالیا همچنین استفاده از ChatGPT را به دلیل نگرانی های حفظ حریم خصوصی ممنوع کرده است، اگرچه در روزهای اخیر موضع خود را تغییر داده است.

قوانین جدید سامسونگ استفاده از سیستم های تولید کننده هوش مصنوعی را در رایانه ها، تبلت ها و تلفن های شرکت و همچنین در شبکه های داخلی ممنوع می کند. آنها بر دستگاه های این شرکت که به مصرف کنندگان فروخته می شوند، مانند تلفن های هوشمند اندرویدی و لپ تاپ های ویندوزی تأثیری نمی گذارند.

سامسونگ از کارمندانی که از ChatGPT و سایر ابزارها در دستگاه‌های شخصی استفاده می‌کنند، خواسته است که اطلاعات مربوط به شرکت یا داده‌های شخصی که می‌تواند مالکیت معنوی آن را فاش کند، ارسال نکنند. او هشدار داد که نقض سیاست های جدید می تواند منجر به اخراج شود.

سامسونگ در یادداشت می‌گوید: «ما از شما می‌خواهیم که با جدیت به دستورالعمل‌های امنیتی ما پایبند باشید و عدم رعایت آنها ممکن است منجر به نقض یا به خطر افتادن اطلاعات شرکت شود که منجر به اقدامات انضباطی تا پایان کار می‌شود».

در همین حال، این شرکت در حال ساخت ابزارهای هوش مصنوعی داخلی خود برای ترجمه و خلاصه سازی اسناد و همچنین توسعه نرم افزار است. همچنین در حال کار بر روی راه هایی برای جلوگیری از بارگذاری اطلاعات حساس شرکت در سرویس های خارجی است. ماه گذشته، ChatGPT یک حالت “ناشناس” را اضافه کرد که به کاربران اجازه می دهد تا از چت های خود برای آموزش مدل های هوش مصنوعی جلوگیری کنند.

مطلب پیشنهادی:  چگونه هوش مصنوعی مولد امنیت سایبری را متحول خواهد کرد

در این یادداشت آمده است: “دفتر مرکزی در حال بررسی اقدامات امنیتی برای ایجاد محیطی امن برای استفاده ایمن از هوش مصنوعی مولد برای افزایش بهره وری و کارایی کارکنان است.” با این حال، تا زمانی که این اقدامات آماده شود، استفاده از هوش مصنوعی مولد را به طور موقت محدود می کنیم.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا