برنامه آیفون ChatGPT دوباره نگرانی های مربوط به حریم خصوصی را افزایش می دهد
از زمانی که OpenAI ChatGPT را معرفی کرد، حامیان حریم خصوصی به کاربران در مورد تهدید بالقوه حریم خصوصی ناشی از برنامه های کاربردی هوش مصنوعی مولد هشدار داده اند. ورود اپلیکیشن ChatGPT به اپ استور اپل دور جدیدی از احتیاط را برانگیخته است.
“[B]Muskaan Saxena در Tech Radar هشدار داد قبل از اینکه با سر به برنامه بپرید، مراقب باشید که خیلی با ربات شخصی نشوید و حریم خصوصی خود را به خطر بیندازید.
او توضیح داد که برنامه iOS با یک مبادله صریح همراه است که کاربران باید از آن آگاه باشند، از جمله این هشدار: «چتهای ناشناس ممکن است توسط مربی هوش مصنوعی ما برای بهبود سیستمهایمان بررسی شوند.
با این حال، ناشناس سازی بلیطی برای حفظ حریم خصوصی نیست. چت های ناشناس فاقد اطلاعاتی هستند که می تواند آنها را به کاربران خاصی پیوند دهد. جوی استنفورد، معاون حریم خصوصی و امنیت در Platform.sh، از پاریس، “با این حال، ناشناس سازی ممکن است اقدام مناسبی برای محافظت از حریم خصوصی کاربر نباشد، زیرا داده های ناشناس هنوز می توانند با ترکیب آنها با سایر منابع اطلاعاتی دوباره شناسایی شوند.” دیجیتال تو گفت که سازنده یک پلت فرم خدمات ابری برای توسعه دهندگان است.
جن کالتریدر، محقق ارشد پروژه Mozilla’s Privacy Not Included، توضیح داد: «مشخص شده است که ناشناس کردن اطلاعات نسبتاً آسان است، به خصوص اگر از اطلاعات مکان استفاده شود.
او به دیجیتال تو گفت: «به طور عمومی، OpenAI میگوید که دادههای مکان را جمعآوری نمیکند، اما سیاست حفظ حریم خصوصی آن برای ChatGPT میگوید که ممکن است این دادهها را جمعآوری کنند.
با این وجود، OpenAI به کاربران برنامه ChatGPT هشدار می دهد که از اطلاعات آنها برای آموزش مدل زبان بزرگ آن استفاده خواهد شد. «آنها در مورد آن صادق هستند. آنها چیزی را پنهان نمی کنند.
حریم خصوصی را جدی بگیرید
کالب ویترز، محقق مرکز امنیت جدید آمریکا، یک اندیشکده امنیت ملی و دفاع در واشنگتن، توضیح داد که اگر کاربر نام، محل کار و سایر اطلاعات شخصی خود را در یک درخواست ChatGPT وارد کند، این داده ها نخواهند داشت. ناشناس باشد .
او به دیجیتال تو گفت: “شما باید از خود بپرسید، “آیا این چیزی است که من به یک کارمند OpenAI می گویم؟”
Mark N. Vena، رئیس و تحلیلگر اصلی SmartTech Research در سن خوزه، کالیفرنیا خاطرنشان کرد که OpenAI گفت که حریم خصوصی را جدی می گیرد و اقداماتی را برای محافظت از داده های کاربر اجرا می کند.
او به دیجیتال تو گفت: «با این حال، همیشه ایده خوبی است که سیاستها و شیوههای حفظ حریم خصوصی هر سرویسی را که استفاده میکنید مرور کنید تا بفهمید چگونه دادههای شما مدیریت میشود و چه محافظتهایی وجود دارد.
جیمز مککویگان، مدافع آگاهی امنیتی در KnowBe4، یک ارائهدهنده آموزش آگاهی امنیتی در کلیرواتر، فلوریدا، اضافه کرد: مهم نیست که یک سازمان چقدر به امنیت دادهها اختصاص داده است، ممکن است آسیبپذیریهایی وجود داشته باشد که میتوانند توسط عوامل مخرب مورد سوء استفاده قرار گیرند.
او به دیجیتال تو گفت: “همیشه مهم است که محتاط باشید و نیاز به اشتراک گذاری اطلاعات حساس را در نظر بگیرید تا اطمینان حاصل شود که داده های شما تا حد امکان ایمن هستند.”
او افزود: «حفاظت از حریم خصوصی شما یک مسئولیت مشترک بین کاربران و شرکتهایی است که دادههای آنها را جمعآوری و استفاده میکنند، که در آن قراردادهای مجوز طولانی و اغلب خوانده نشده کاربر نهایی مستند شده است».
محافظ های داخلی
مککویگان خاطرنشان کرد که کاربران برنامههای هوش مصنوعی مولد اطلاعات حساسی مانند تاریخ تولد، شماره تلفن و آدرسهای پستی و ایمیل را در درخواستهای خود درج میکنند. او گفت: «اگر یک سیستم هوش مصنوعی به اندازه کافی ایمن نباشد، می تواند توسط اشخاص ثالث قابل دسترسی باشد و برای اهداف مخرب مانند سرقت هویت یا تبلیغات هدفمند مورد استفاده قرار گیرد.
او اضافه کرد که برنامههای هوش مصنوعی مولد همچنین میتوانند بهطور ناخواسته اطلاعات حساس کاربران را از طریق محتوایی که تولید میکنند فاش کنند. وی ادامه داد: “بنابراین، مصرف کنندگان باید از خطرات بالقوه حریم خصوصی استفاده از برنامه های کاربردی هوش مصنوعی مولد آگاه باشند و اقدامات لازم را برای محافظت از اطلاعات شخصی خود انجام دهند.”
برخلاف رایانههای رومیزی و لپتاپها، تلفنهای همراه دارای برخی ویژگیهای امنیتی داخلی هستند که میتواند نفوذ برنامههای در حال اجرا به حریم خصوصی را محدود کند.
با این حال، همانطور که مککویگان اشاره میکند، «در حالی که برخی از اقدامات، مانند مجوزهای برنامه و تنظیمات حریم خصوصی، ممکن است سطحی از محافظت را فراهم کنند، ممکن است به طور کامل از اطلاعات شخصی شما در برابر انواع تهدیدات حریم خصوصی محافظت نکنند، مانند هر برنامهای که در برنامه بارگذاری شده است. گوشی های هوشمند. “
Vena موافقت کرد که اقدامات داخلی مانند مجوزهای برنامه، تنظیمات حریم خصوصی و خطمشیهای فروشگاه برنامه، سطحی از محافظت را ارائه میدهند. او گفت: «اما آنها ممکن است برای کاهش همه تهدیدات حریم خصوصی کافی نباشند. توسعه دهندگان برنامه و سازندگان گوشی های هوشمند رویکردهای متفاوتی برای حفظ حریم خصوصی دارند و همه برنامه ها از بهترین شیوه ها پیروی نمی کنند.
حتی شیوه های OpenAI از دسکتاپ به موبایل متفاوت است. «اگر از ChatGPT در وبسایت استفاده میکنید، این گزینه را دارید که به کنترلهای داده بروید و از چت خود برای بهبود ChatGPT انصراف دهید. Caltrider خاطرنشان کرد: این تنظیم در برنامه iOS وجود ندارد.
مراقب اطلاعات حریم خصوصی App Store باشید
Caltrider همچنین مجوزهای استفاده شده توسط برنامه iOS OpenAI را کمی مبهم دانست و خاطرنشان کرد که «در فروشگاه Google Play می توانید بررسی کنید و ببینید از چه مجوزهایی استفاده می شود. شما نمی توانید این کار را از طریق فروشگاه اپل انجام دهید.
به کاربران هشدار داد که به اطلاعات حریم خصوصی موجود در فروشگاههای اپلیکیشن اعتماد نکنند. او خاطرنشان کرد: «تحقیقی که ما روی اطلاعات ایمنی فروشگاه Google Play انجام دادیم نشان میدهد که واقعاً غیرقابل اعتماد است.
او ادامه داد: «تحقیقات انجام شده توسط دیگران در اپ استور اپل نشان میدهد که آن نیز غیرقابل اعتماد است. “کاربران نباید به اطلاعات ایمنی داده ای که در صفحات برنامه پیدا می کنند اعتماد کنند. آنها باید تحقیقات خود را انجام دهند که سخت و پیچیده است.
او افزود: “شرکت ها باید در مورد آنچه جمع آوری و به اشتراک می گذارند صادق باشند.” OpenAI در مورد نحوه استفاده از دادههایی که جمعآوری میکند برای آموزش ChatGPT صادق است، اما بعد از آن میگوید که وقتی دادهها را ناشناس میکنند، میتوانند از آن به روشهای زیادی استفاده کنند که فراتر از استانداردهای خطمشی رازداری است.
استنفورد خاطرنشان کرد که اپل سیاست هایی دارد که می تواند برخی از تهدیدات حریم خصوصی ناشی از برنامه های کاربردی هوش مصنوعی را برطرف کند. آنها عبارتند از:
- نیاز به رضایت کاربر برای جمع آوری و به اشتراک گذاری داده ها از برنامه هایی که از فناوری های هوش مصنوعی مولد استفاده می کنند.
- ارائه شفافیت و کنترل بر نحوه استفاده از داده ها و توسط چه کسی از طریق ویژگی AppTracking Transparency، که به کاربران اجازه می دهد از ردیابی توسط برنامه های مختلف منصرف شوند.
- اجرای استانداردها و مقررات حفظ حریم خصوصی در مورد توسعه دهندگان برنامه از طریق فرآیند بررسی App Store و رد کردن برنامه هایی که آنها را نقض می کنند.
با این حال، اذعان کرد که «این اقدامات ممکن است برای جلوگیری از ایجاد محتوای نامناسب، مضر یا گمراهکننده که ممکن است بر حریم خصوصی و امنیت کاربران تأثیر بگذارد، برنامههای کاربردی هوش مصنوعی مولد کافی نباشد».
دعوت به قانون فدرال حریم خصوصی هوش مصنوعی
“OpenAI فقط یک شرکت است. هدان عمر، تحلیلگر ارشد خط مشی هوش مصنوعی در مرکز نوآوری داده، اندیشکده ای که تلاقی داده ها، فناوری و خط مشی عمومی را مطالعه می کند، افزود: چندین مدل زبان بزرگ برای ساختن وجود دارد، و احتمالاً تعداد بیشتری از آنها در آینده نزدیک پدیدار خواهند شد. واشنگتن، ناحیه کلمبیا
او به دیجیتال تو گفت: “ما باید یک قانون فدرال حفظ حریم خصوصی داده ها داشته باشیم تا اطمینان حاصل شود که همه شرکت ها به مجموعه ای از استانداردهای واضح پایبند هستند.”
کالتریدر افزود: «با رشد و گسترش سریع هوش مصنوعی، قطعاً باید نظارتها و مقررات محکم و قوی وجود داشته باشد تا مراقب بقیه افراد با رشد و گسترش بیشتر باشد».