تکنولوژی

برنامه آیفون ChatGPT دوباره نگرانی های مربوط به حریم خصوصی را افزایش می دهد

از زمانی که OpenAI ChatGPT را معرفی کرد، حامیان حریم خصوصی به کاربران در مورد تهدید بالقوه حریم خصوصی ناشی از برنامه های کاربردی هوش مصنوعی مولد هشدار داده اند. ورود اپلیکیشن ChatGPT به اپ استور اپل دور جدیدی از احتیاط را برانگیخته است.

“[B]Muskaan Saxena در Tech Radar هشدار داد قبل از اینکه با سر به برنامه بپرید، مراقب باشید که خیلی با ربات شخصی نشوید و حریم خصوصی خود را به خطر بیندازید.

او توضیح داد که برنامه iOS با یک مبادله صریح همراه است که کاربران باید از آن آگاه باشند، از جمله این هشدار: «چت‌های ناشناس ممکن است توسط مربی هوش مصنوعی ما برای بهبود سیستم‌هایمان بررسی شوند.

با این حال، ناشناس سازی بلیطی برای حفظ حریم خصوصی نیست. چت های ناشناس فاقد اطلاعاتی هستند که می تواند آنها را به کاربران خاصی پیوند دهد. جوی استنفورد، معاون حریم خصوصی و امنیت در Platform.sh، از پاریس، “با این حال، ناشناس سازی ممکن است اقدام مناسبی برای محافظت از حریم خصوصی کاربر نباشد، زیرا داده های ناشناس هنوز می توانند با ترکیب آنها با سایر منابع اطلاعاتی دوباره شناسایی شوند.” دیجیتال تو گفت که سازنده یک پلت فرم خدمات ابری برای توسعه دهندگان است.

جن کالتریدر، محقق ارشد پروژه Mozilla’s Privacy Not Included، توضیح داد: «مشخص شده است که ناشناس کردن اطلاعات نسبتاً آسان است، به خصوص اگر از اطلاعات مکان استفاده شود.

او به دیجیتال تو گفت: «به طور عمومی، OpenAI می‌گوید که داده‌های مکان را جمع‌آوری نمی‌کند، اما سیاست حفظ حریم خصوصی آن برای ChatGPT می‌گوید که ممکن است این داده‌ها را جمع‌آوری کنند.

با این وجود، OpenAI به کاربران برنامه ChatGPT هشدار می دهد که از اطلاعات آنها برای آموزش مدل زبان بزرگ آن استفاده خواهد شد. «آنها در مورد آن صادق هستند. آنها چیزی را پنهان نمی کنند.

حریم خصوصی را جدی بگیرید

کالب ویترز، محقق مرکز امنیت جدید آمریکا، یک اندیشکده امنیت ملی و دفاع در واشنگتن، توضیح داد که اگر کاربر نام، محل کار و سایر اطلاعات شخصی خود را در یک درخواست ChatGPT وارد کند، این داده ها نخواهند داشت. ناشناس باشد .

مطلب پیشنهادی:  هشدار طوفان خورشیدی! انتظار می رود این طوفان امروز 3 آگوست به زمین برسد

او به دیجیتال تو گفت: “شما باید از خود بپرسید، “آیا این چیزی است که من به یک کارمند OpenAI می گویم؟”

Mark N. Vena، رئیس و تحلیلگر اصلی SmartTech Research در سن خوزه، کالیفرنیا خاطرنشان کرد که OpenAI گفت که حریم خصوصی را جدی می گیرد و اقداماتی را برای محافظت از داده های کاربر اجرا می کند.

او به دیجیتال تو گفت: «با این حال، همیشه ایده خوبی است که سیاست‌ها و شیوه‌های حفظ حریم خصوصی هر سرویسی را که استفاده می‌کنید مرور کنید تا بفهمید چگونه داده‌های شما مدیریت می‌شود و چه محافظت‌هایی وجود دارد.


جیمز مک‌کویگان، مدافع آگاهی امنیتی در KnowBe4، یک ارائه‌دهنده آموزش آگاهی امنیتی در کلیرواتر، فلوریدا، اضافه کرد: مهم نیست که یک سازمان چقدر به امنیت داده‌ها اختصاص داده است، ممکن است آسیب‌پذیری‌هایی وجود داشته باشد که می‌توانند توسط عوامل مخرب مورد سوء استفاده قرار گیرند.

او به دیجیتال تو گفت: “همیشه مهم است که محتاط باشید و نیاز به اشتراک گذاری اطلاعات حساس را در نظر بگیرید تا اطمینان حاصل شود که داده های شما تا حد امکان ایمن هستند.”

او افزود: «حفاظت از حریم خصوصی شما یک مسئولیت مشترک بین کاربران و شرکت‌هایی است که داده‌های آنها را جمع‌آوری و استفاده می‌کنند، که در آن قراردادهای مجوز طولانی و اغلب خوانده نشده کاربر نهایی مستند شده است».

محافظ های داخلی

مک‌کویگان خاطرنشان کرد که کاربران برنامه‌های هوش مصنوعی مولد اطلاعات حساسی مانند تاریخ تولد، شماره تلفن و آدرس‌های پستی و ایمیل را در درخواست‌های خود درج می‌کنند. او گفت: «اگر یک سیستم هوش مصنوعی به اندازه کافی ایمن نباشد، می تواند توسط اشخاص ثالث قابل دسترسی باشد و برای اهداف مخرب مانند سرقت هویت یا تبلیغات هدفمند مورد استفاده قرار گیرد.

او اضافه کرد که برنامه‌های هوش مصنوعی مولد همچنین می‌توانند به‌طور ناخواسته اطلاعات حساس کاربران را از طریق محتوایی که تولید می‌کنند فاش کنند. وی ادامه داد: “بنابراین، مصرف کنندگان باید از خطرات بالقوه حریم خصوصی استفاده از برنامه های کاربردی هوش مصنوعی مولد آگاه باشند و اقدامات لازم را برای محافظت از اطلاعات شخصی خود انجام دهند.”

مطلب پیشنهادی:  3 نکته کلیدی از اعلامیه RDNA 3 AMD

برخلاف رایانه‌های رومیزی و لپ‌تاپ‌ها، تلفن‌های همراه دارای برخی ویژگی‌های امنیتی داخلی هستند که می‌تواند نفوذ برنامه‌های در حال اجرا به حریم خصوصی را محدود کند.

با این حال، همانطور که مک‌کویگان اشاره می‌کند، «در حالی که برخی از اقدامات، مانند مجوزهای برنامه و تنظیمات حریم خصوصی، ممکن است سطحی از محافظت را فراهم کنند، ممکن است به طور کامل از اطلاعات شخصی شما در برابر انواع تهدیدات حریم خصوصی محافظت نکنند، مانند هر برنامه‌ای که در برنامه بارگذاری شده است. گوشی های هوشمند. “

Vena موافقت کرد که اقدامات داخلی مانند مجوزهای برنامه، تنظیمات حریم خصوصی و خط‌مشی‌های فروشگاه برنامه، سطحی از محافظت را ارائه می‌دهند. او گفت: «اما آنها ممکن است برای کاهش همه تهدیدات حریم خصوصی کافی نباشند. توسعه دهندگان برنامه و سازندگان گوشی های هوشمند رویکردهای متفاوتی برای حفظ حریم خصوصی دارند و همه برنامه ها از بهترین شیوه ها پیروی نمی کنند.

حتی شیوه های OpenAI از دسکتاپ به موبایل متفاوت است. «اگر از ChatGPT در وب‌سایت استفاده می‌کنید، این گزینه را دارید که به کنترل‌های داده بروید و از چت خود برای بهبود ChatGPT انصراف دهید. Caltrider خاطرنشان کرد: این تنظیم در برنامه iOS وجود ندارد.

مراقب اطلاعات حریم خصوصی App Store باشید

Caltrider همچنین مجوزهای استفاده شده توسط برنامه iOS OpenAI را کمی مبهم دانست و خاطرنشان کرد که «در فروشگاه Google Play می توانید بررسی کنید و ببینید از چه مجوزهایی استفاده می شود. شما نمی توانید این کار را از طریق فروشگاه اپل انجام دهید.

به کاربران هشدار داد که به اطلاعات حریم خصوصی موجود در فروشگاه‌های اپلیکیشن اعتماد نکنند. او خاطرنشان کرد: «تحقیقی که ما روی اطلاعات ایمنی فروشگاه Google Play انجام دادیم نشان می‌دهد که واقعاً غیرقابل اعتماد است.


او ادامه داد: «تحقیقات انجام شده توسط دیگران در اپ استور اپل نشان می‌دهد که آن نیز غیرقابل اعتماد است. “کاربران نباید به اطلاعات ایمنی داده ای که در صفحات برنامه پیدا می کنند اعتماد کنند. آنها باید تحقیقات خود را انجام دهند که سخت و پیچیده است.

مطلب پیشنهادی:  OpenAI، صاحب ChatGPT، "مشکل مهم" را در افشای هدرهای چت کاربر برطرف می کند

او افزود: “شرکت ها باید در مورد آنچه جمع آوری و به اشتراک می گذارند صادق باشند.” OpenAI در مورد نحوه استفاده از داده‌هایی که جمع‌آوری می‌کند برای آموزش ChatGPT صادق است، اما بعد از آن می‌گوید که وقتی داده‌ها را ناشناس می‌کنند، می‌توانند از آن به روش‌های زیادی استفاده کنند که فراتر از استانداردهای خط‌مشی رازداری است.

استنفورد خاطرنشان کرد که اپل سیاست هایی دارد که می تواند برخی از تهدیدات حریم خصوصی ناشی از برنامه های کاربردی هوش مصنوعی را برطرف کند. آنها عبارتند از:

  • نیاز به رضایت کاربر برای جمع آوری و به اشتراک گذاری داده ها از برنامه هایی که از فناوری های هوش مصنوعی مولد استفاده می کنند.
  • ارائه شفافیت و کنترل بر نحوه استفاده از داده ها و توسط چه کسی از طریق ویژگی AppTracking Transparency، که به کاربران اجازه می دهد از ردیابی توسط برنامه های مختلف منصرف شوند.
  • اجرای استانداردها و مقررات حفظ حریم خصوصی در مورد توسعه دهندگان برنامه از طریق فرآیند بررسی App Store و رد کردن برنامه هایی که آنها را نقض می کنند.

با این حال، اذعان کرد که «این اقدامات ممکن است برای جلوگیری از ایجاد محتوای نامناسب، مضر یا گمراه‌کننده که ممکن است بر حریم خصوصی و امنیت کاربران تأثیر بگذارد، برنامه‌های کاربردی هوش مصنوعی مولد کافی نباشد».

دعوت به قانون فدرال حریم خصوصی هوش مصنوعی

“OpenAI فقط یک شرکت است. هدان عمر، تحلیلگر ارشد خط مشی هوش مصنوعی در مرکز نوآوری داده، اندیشکده ای که تلاقی داده ها، فناوری و خط مشی عمومی را مطالعه می کند، افزود: چندین مدل زبان بزرگ برای ساختن وجود دارد، و احتمالاً تعداد بیشتری از آنها در آینده نزدیک پدیدار خواهند شد. واشنگتن، ناحیه کلمبیا

او به دیجیتال تو گفت: “ما باید یک قانون فدرال حفظ حریم خصوصی داده ها داشته باشیم تا اطمینان حاصل شود که همه شرکت ها به مجموعه ای از استانداردهای واضح پایبند هستند.”

کالتریدر افزود: «با رشد و گسترش سریع هوش مصنوعی، قطعاً باید نظارت‌ها و مقررات محکم و قوی وجود داشته باشد تا مراقب بقیه افراد با رشد و گسترش بیشتر باشد».

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا