نوجوانان در رسانه های اجتماعی هم به محافظت و هم به حفظ حریم خصوصی نیاز دارند – هوش مصنوعی می تواند به ایجاد تعادل مناسب کمک کند
متا در 9 ژانویه 2024 اعلام کرد که با مسدود کردن نوجوانان از مشاهده محتوایی در اینستاگرام و فیس بوک که شرکت آن را مضر می داند، از جمله محتوای مربوط به خودکشی و اختلالات خوردن محافظت می کند. این اقدام در حالی صورت میگیرد که دولتهای فدرال و ایالتی فشار بر شرکتهای رسانههای اجتماعی را برای اطمینان از اقدامات ایمنی برای نوجوانان افزایش دادهاند.
در همان زمان، نوجوانان به همسالان خود در رسانه های اجتماعی برای حمایتی که نمی توانند در جای دیگری دریافت کنند، روی می آورند. تلاش برای محافظت از نوجوانان می تواند به طور ناخواسته کمک گرفتن را برای آنها دشوارتر کند.
کنگره در سال های اخیر جلسات متعددی را در مورد رسانه های اجتماعی و خطرات آن برای جوانان برگزار کرده است. مدیران عامل متا، ایکس – که قبلاً توییتر نامیده می شد – TikTok، Snap و Discord قرار است در 31 ژانویه 2024 در کمیته قضایی سنا درباره تلاش های خود برای محافظت از کودکان زیر سن قانونی در برابر استثمار جنسی شهادت دهند.
بر اساس بیانیه ای که پیش از جلسه استماع از سوی سناتور دیک دوربین (D-Ill.) و لیندسی گراهام (RS) رئیس کمیته و عضو رده بندی این کمیته، شرکت های فناوری “در نهایت مجبور به اعتراف به شکست های خود در مورد محافظت از کودکان می شوند.” C.) به ترتیب.
من محققی هستم که در حال مطالعه ایمنی آنلاین هستم. من و همکارانم تعاملات رسانه های اجتماعی نوجوانان و اثربخشی تلاش های حمایت از مصرف کننده پلتفرم ها را مطالعه کردیم. مطالعات نشان میدهد که در حالی که نوجوانان در رسانههای اجتماعی با خطر مواجه هستند، از طرف همسالانشان نیز حمایت میشوند، به ویژه از طریق پیامهای مستقیم. ما مجموعهای از اقداماتی را شناسایی کردیم که پلتفرمهای رسانههای اجتماعی میتوانند برای محافظت از کاربران و در عین حال محافظت از حریم خصوصی و استقلال آنلاین آنها انجام دهند.
کودکان با چه چیزی روبرو می شوند؟
شیوع خطرات برای نوجوانان در رسانه های اجتماعی به خوبی ثابت شده است. این خطرات از آزار و اذیت و سوء استفاده گرفته تا سلامت روانی ضعیف و بهره کشی جنسی را شامل می شود. بررسیها نشان میدهد که شرکتهایی مانند متا میدانستند که پلتفرمهایشان مسائل مربوط به سلامت روان را تشدید میکند و به سلامت روان جوانان یکی از اولویتهای جراح عمومی ایالات متحده کمک میکند.
بسیاری از تحقیقات در مورد ایمنی آنلاین نوجوانان از داده های خود گزارش شده مانند نظرسنجی ها است. تحقیقات بیشتری در مورد تعاملات شخصی جوانان در دنیای واقعی و دیدگاه آنها در مورد خطرات آنلاین مورد نیاز است. برای رفع این نیاز، من و همکارانم مجموعهای از فعالیتهای جوانان در اینستاگرام را جمعآوری کردیم که شامل بیش از ۷ میلیون پیام مستقیم بود. ما از جوانان خواستیم که درباره مکالمات خود نظر دهند و پیام هایی را که باعث ایجاد احساس ناراحتی یا ناامنی در آنها می شود، شناسایی کنند.
با استفاده از این مجموعه داده، متوجه شدیم که تعاملات چهره به چهره می تواند برای جوانانی که به دنبال حمایت در مورد مسائل مختلف از زندگی روزمره تا مسائل مربوط به سلامت روان هستند، حیاتی باشد. یافتههای ما نشان میدهد که این کانالها توسط جوانان برای بحث عمیقتر در مورد تعاملات عمومی خود استفاده میشد. بر اساس اعتماد متقابل در تنظیمات، نوجوانان در جستجوی کمک احساس امنیت می کردند.
تحقیقات نشان می دهد که حریم خصوصی گفتمان آنلاین نقش مهمی در امنیت آنلاین جوانان دارد و در عین حال، بخش قابل توجهی از تعاملات مضر در این پلتفرم ها به صورت پیام خصوصی است. پیامهای خطرناکی که توسط کاربران در مجموعه داده ما ذکر شده است شامل آزار و اذیت، پیامهای جنسی، درخواست جنسی، برهنگی، هرزهنگاری، سخنان مشوق عداوت و تنفر، و فروش یا تبلیغ فعالیتهای غیرقانونی است.
با این حال، استفاده از فناوری خودکار برای شناسایی و جلوگیری از خطرات آنلاین برای نوجوانان برای پلتفرم ها دشوارتر شده است زیرا پلتفرم ها برای محافظت از حریم خصوصی کاربران تحت فشار قرار گرفته اند. برای مثال، متا رمزگذاری سرتاسری را برای همه پیامها در پلتفرمهای خود پیادهسازی کرده است تا اطمینان حاصل کند که محتوای پیام امن است و فقط برای شرکتکنندگان در مکالمه قابل دسترسی است.
علاوه بر این، اقدامات متا برای مسدود کردن محتوای مربوط به خودکشی و اختلالات خوردن، از ارسال و جستجوی عمومی آن محتوا جلوگیری میکند، حتی اگر دوست نوجوانی آن را پست کرده باشد. این بدان معناست که نوجوانی که این محتوا را به اشتراک گذاشته است بدون حمایت دوستان و همسالان خود تنها خواهد بود. علاوه بر این، استراتژی محتوای متا به تعاملات خطرناک در مکالمات خصوصی که نوجوانان آنلاین دارند، نمی پردازد.
دستیابی به تعادل
بنابراین، چالش محافظت از کاربران جوان بدون به خطر انداختن حریم خصوصی آنهاست. برای این منظور، ما مطالعهای انجام دادیم تا بفهمیم چگونه میتوانیم از حداقل دادهها برای شناسایی پیامهای خطرناک استفاده کنیم. ما میخواستیم بفهمیم که چگونه ویژگیها یا ابردادههای مختلف مکالمات مخاطرهآمیز، مانند مدت زمان مکالمه، میانگین زمان پاسخدهی، و روابط شرکتکنندگان در گفتگو، میتوانند به برنامههای یادگیری ماشینی کمک کنند که این خطرات را شناسایی کنند. به عنوان مثال، تحقیقات قبلی نشان داده است که مکالمات مخاطره آمیز معمولا کوتاه و یک طرفه هستند، مانند زمانی که غریبه ها پیشرفت های ناخواسته ای انجام می دهند.
ما متوجه شدیم که برنامه یادگیری ماشینی ما قادر است مکالمات خطرناک را در 87٪ مواقع تنها با استفاده از فراداده مکالمه شناسایی کند. با این حال، تجزیه و تحلیل متن، تصاویر و ویدئوهای گفتگو موثرترین رویکرد برای شناسایی نوع و شدت خطر است.
این نتایج اهمیت ابرداده را برای تشخیص مکالمات خطرناک برجسته می کند و می تواند به عنوان یک دستورالعمل برای طراحی پلت فرم های شناسایی خطر هوش مصنوعی استفاده شود. پلتفرمها میتوانند از ویژگیهای سطح بالا مانند ابرداده برای مسدود کردن محتوای مضر بدون اسکن آن محتوا و در نتیجه نقض حریم خصوصی کاربر استفاده کنند. به عنوان مثال، یک قلدر مداوم که یک فرد جوان میخواهد از آن دوری کند، ابردادهای ایجاد میکند – ارتباطات مکرر، کوتاه و یک طرفه بین کاربران غیرمرتبط – که یک سیستم هوش مصنوعی میتواند از آن برای جلوگیری از قلدر استفاده کند.
در حالت ایدهآل، به جوانان و مراقبان آنها این امکان داده میشود که بتوانند رمزگذاری، تشخیص خطر یا هر دو را فعال کنند تا بتوانند در مورد مبادله بین حریم خصوصی و ایمنی برای خود تصمیم بگیرند. (The Talk) AMS