تکنولوژی

نوجوانان در رسانه های اجتماعی هم به محافظت و هم به حفظ حریم خصوصی نیاز دارند – هوش مصنوعی می تواند به ایجاد تعادل مناسب کمک کند

متا در 9 ژانویه 2024 اعلام کرد که با مسدود کردن نوجوانان از مشاهده محتوایی در اینستاگرام و فیس بوک که شرکت آن را مضر می داند، از جمله محتوای مربوط به خودکشی و اختلالات خوردن محافظت می کند. این اقدام در حالی صورت می‌گیرد که دولت‌های فدرال و ایالتی فشار بر شرکت‌های رسانه‌های اجتماعی را برای اطمینان از اقدامات ایمنی برای نوجوانان افزایش داده‌اند.

در همان زمان، نوجوانان به همسالان خود در رسانه های اجتماعی برای حمایتی که نمی توانند در جای دیگری دریافت کنند، روی می آورند. تلاش برای محافظت از نوجوانان می تواند به طور ناخواسته کمک گرفتن را برای آنها دشوارتر کند.

کنگره در سال های اخیر جلسات متعددی را در مورد رسانه های اجتماعی و خطرات آن برای جوانان برگزار کرده است. مدیران عامل متا، ایکس – که قبلاً توییتر نامیده می شد – TikTok، Snap و Discord قرار است در 31 ژانویه 2024 در کمیته قضایی سنا درباره تلاش های خود برای محافظت از کودکان زیر سن قانونی در برابر استثمار جنسی شهادت دهند.

بر اساس بیانیه ای که پیش از جلسه استماع از سوی سناتور دیک دوربین (D-Ill.) و لیندسی گراهام (RS) رئیس کمیته و عضو رده بندی این کمیته، شرکت های فناوری “در نهایت مجبور به اعتراف به شکست های خود در مورد محافظت از کودکان می شوند.” C.) به ترتیب.

من محققی هستم که در حال مطالعه ایمنی آنلاین هستم. من و همکارانم تعاملات رسانه های اجتماعی نوجوانان و اثربخشی تلاش های حمایت از مصرف کننده پلتفرم ها را مطالعه کردیم. مطالعات نشان می‌دهد که در حالی که نوجوانان در رسانه‌های اجتماعی با خطر مواجه هستند، از طرف همسالانشان نیز حمایت می‌شوند، به ویژه از طریق پیام‌های مستقیم. ما مجموعه‌ای از اقداماتی را شناسایی کردیم که پلتفرم‌های رسانه‌های اجتماعی می‌توانند برای محافظت از کاربران و در عین حال محافظت از حریم خصوصی و استقلال آنلاین آنها انجام دهند.

کودکان با چه چیزی روبرو می شوند؟

شیوع خطرات برای نوجوانان در رسانه های اجتماعی به خوبی ثابت شده است. این خطرات از آزار و اذیت و سوء استفاده گرفته تا سلامت روانی ضعیف و بهره کشی جنسی را شامل می شود. بررسی‌ها نشان می‌دهد که شرکت‌هایی مانند متا می‌دانستند که پلتفرم‌هایشان مسائل مربوط به سلامت روان را تشدید می‌کند و به سلامت روان جوانان یکی از اولویت‌های جراح عمومی ایالات متحده کمک می‌کند.

مطلب پیشنهادی:  متا اشتراک پولی را راه اندازی می کند، برای چه کسی و چرا؟

بسیاری از تحقیقات در مورد ایمنی آنلاین نوجوانان از داده های خود گزارش شده مانند نظرسنجی ها است. تحقیقات بیشتری در مورد تعاملات شخصی جوانان در دنیای واقعی و دیدگاه آنها در مورد خطرات آنلاین مورد نیاز است. برای رفع این نیاز، من و همکارانم مجموعه‌ای از فعالیت‌های جوانان در اینستاگرام را جمع‌آوری کردیم که شامل بیش از ۷ میلیون پیام مستقیم بود. ما از جوانان خواستیم که درباره مکالمات خود نظر دهند و پیام هایی را که باعث ایجاد احساس ناراحتی یا ناامنی در آنها می شود، شناسایی کنند.

با استفاده از این مجموعه داده، متوجه شدیم که تعاملات چهره به چهره می تواند برای جوانانی که به دنبال حمایت در مورد مسائل مختلف از زندگی روزمره تا مسائل مربوط به سلامت روان هستند، حیاتی باشد. یافته‌های ما نشان می‌دهد که این کانال‌ها توسط جوانان برای بحث عمیق‌تر در مورد تعاملات عمومی خود استفاده می‌شد. بر اساس اعتماد متقابل در تنظیمات، نوجوانان در جستجوی کمک احساس امنیت می کردند.

تحقیقات نشان می دهد که حریم خصوصی گفتمان آنلاین نقش مهمی در امنیت آنلاین جوانان دارد و در عین حال، بخش قابل توجهی از تعاملات مضر در این پلتفرم ها به صورت پیام خصوصی است. پیام‌های خطرناکی که توسط کاربران در مجموعه داده ما ذکر شده است شامل آزار و اذیت، پیام‌های جنسی، درخواست جنسی، برهنگی، هرزه‌نگاری، سخنان مشوق عداوت و تنفر، و فروش یا تبلیغ فعالیت‌های غیرقانونی است.

با این حال، استفاده از فناوری خودکار برای شناسایی و جلوگیری از خطرات آنلاین برای نوجوانان برای پلتفرم ها دشوارتر شده است زیرا پلتفرم ها برای محافظت از حریم خصوصی کاربران تحت فشار قرار گرفته اند. برای مثال، متا رمزگذاری سرتاسری را برای همه پیام‌ها در پلتفرم‌های خود پیاده‌سازی کرده است تا اطمینان حاصل کند که محتوای پیام امن است و فقط برای شرکت‌کنندگان در مکالمه قابل دسترسی است.

مطلب پیشنهادی:  تصویر روز نجوم ناسا 15 ژوئن 2023: خوشه کروی M15 توسط هابل تصویربرداری شده است.

علاوه بر این، اقدامات متا برای مسدود کردن محتوای مربوط به خودکشی و اختلالات خوردن، از ارسال و جستجوی عمومی آن محتوا جلوگیری می‌کند، حتی اگر دوست نوجوانی آن را پست کرده باشد. این بدان معناست که نوجوانی که این محتوا را به اشتراک گذاشته است بدون حمایت دوستان و همسالان خود تنها خواهد بود. علاوه بر این، استراتژی محتوای متا به تعاملات خطرناک در مکالمات خصوصی که نوجوانان آنلاین دارند، نمی پردازد.

دستیابی به تعادل

بنابراین، چالش محافظت از کاربران جوان بدون به خطر انداختن حریم خصوصی آنهاست. برای این منظور، ما مطالعه‌ای انجام دادیم تا بفهمیم چگونه می‌توانیم از حداقل داده‌ها برای شناسایی پیام‌های خطرناک استفاده کنیم. ما می‌خواستیم بفهمیم که چگونه ویژگی‌ها یا ابرداده‌های مختلف مکالمات مخاطره‌آمیز، مانند مدت زمان مکالمه، میانگین زمان پاسخ‌دهی، و روابط شرکت‌کنندگان در گفتگو، می‌توانند به برنامه‌های یادگیری ماشینی کمک کنند که این خطرات را شناسایی کنند. به عنوان مثال، تحقیقات قبلی نشان داده است که مکالمات مخاطره آمیز معمولا کوتاه و یک طرفه هستند، مانند زمانی که غریبه ها پیشرفت های ناخواسته ای انجام می دهند.

ما متوجه شدیم که برنامه یادگیری ماشینی ما قادر است مکالمات خطرناک را در 87٪ مواقع تنها با استفاده از فراداده مکالمه شناسایی کند. با این حال، تجزیه و تحلیل متن، تصاویر و ویدئوهای گفتگو موثرترین رویکرد برای شناسایی نوع و شدت خطر است.

این نتایج اهمیت ابرداده را برای تشخیص مکالمات خطرناک برجسته می کند و می تواند به عنوان یک دستورالعمل برای طراحی پلت فرم های شناسایی خطر هوش مصنوعی استفاده شود. پلتفرم‌ها می‌توانند از ویژگی‌های سطح بالا مانند ابرداده برای مسدود کردن محتوای مضر بدون اسکن آن محتوا و در نتیجه نقض حریم خصوصی کاربر استفاده کنند. به عنوان مثال، یک قلدر مداوم که یک فرد جوان می‌خواهد از آن دوری کند، ابرداده‌ای ایجاد می‌کند – ارتباطات مکرر، کوتاه و یک طرفه بین کاربران غیرمرتبط – که یک سیستم هوش مصنوعی می‌تواند از آن برای جلوگیری از قلدر استفاده کند.

مطلب پیشنهادی:  BYD چین اولین وانت برقی خود را در سال جاری روانه بازار خواهد کرد

در حالت ایده‌آل، به جوانان و مراقبان آن‌ها این امکان داده می‌شود که بتوانند رمزگذاری، تشخیص خطر یا هر دو را فعال کنند تا بتوانند در مورد مبادله بین حریم خصوصی و ایمنی برای خود تصمیم بگیرند. (The Talk) AMS

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا