تکنولوژی

افشای شبکه های پدوفیل وحشتناک در اینستاگرام؛ این برنامه به دلیل نقش مورد انتقاد قرار گرفته، کاربران را ممنوع می کند

پلتفرم‌های رسانه‌های اجتماعی یک عالم کوچک از جامعه هستند. شما همه جوامع جالب و سرگرم کننده را دارید، اما مکان های وحشتناکی تاریک و نفرت انگیز را نیز دارید. اکنون اینستاگرام با گزارشی فاش شده است که ادعا می کند الگوریتم های این برنامه در واقع به اتصال شبکه های پدوفیل کمک کرده است. یک گزارش نشان می‌دهد که شبکه‌های عظیمی از پدوفیل‌ها آشکارا بر روی این پلتفرم کار می‌کنند و الگوریتم آن نقشی در ارتباط بین افرادی که به دنبال پورنوگرافی کودکان هستند با کسانی که آن را ارائه می‌دهند، ایفا می‌کند.

این گزارش بر اساس تحقیقات وال استریت ژورنال (WSJ) و محققان دانشگاه استنفورد و دانشگاه ماساچوست آمهرست است. طبق یافته‌های آنها، حساب‌هایی نیز وجود داشت که خریداران می‌توانستند «اعمال جنسی خاص» را انجام دهند یا حتی «تاریخ» ترتیب دهند.

چگونه اینستاگرام در ارتباط با پدوفیل ها نقش دارد

لازم به ذکر است که الگوریتم ها برای پیوند دادن این گروه ها به طور خاص طراحی نشده اند. آنها طراحی شده اند تا به کاربران کمک کنند محتوای مرتبط را در پلتفرم پیدا کنند و اگر کاربر محتوای خاص را جستجو کند یا وقت خود را روی هشتگ های خاص بگذراند، در نهایت محتوایی به او نشان داده می شود که به آنها اجازه می دهد با کسانی که آنها را عرضه می کنند و می فروشند ارتباط برقرار کنند.

بر اساس این گزارش، برخی از هشتگ‌های صریح و عمیقا توهین‌آمیز مانند #pedowhore و #preteensex در اینستاگرام کار می‌کردند که در آن هزاران پست منتشر شد. این گروه های پدوفیل از چنین مکان هایی بازدید می کردند تا با فروشندگان پورنوگرافی کودکان تماس بگیرند. اینستاگرام نیز چنین فروشندگانی را توصیه می کند و به شکوفایی کل شبکه کمک می کند.

مطلب پیشنهادی:  گزارش درآمد TSMC Q4 2023

در واقع، یافته‌های این گزارش نشان می‌دهد که بسیاری از این حساب‌های فروشنده وانمود می‌کنند که خودشان کودک هستند و از «دسته‌های جنسی آشکارا» استفاده می‌کنند.

«اینکه یک تیم متشکل از سه دانشگاه با دسترسی محدود می‌توانند چنین شبکه عظیمی را بیابند، باید آلارم‌های متا را به صدا درآورند. الکس استاموس، رئیس رصدخانه اینترنت استنفورد و افسر ارشد امنیت متا تا سال 2018، به WSJ گفت: امیدوارم شرکت دوباره روی محققان انسانی سرمایه‌گذاری کند.

نحوه عملکرد این شبکه ها در اینستاگرام

هنگامی که به یک پدوفیل پیشنهاد یک اکانت فروشنده داده شد، با تشویق الگوریتم اینستاگرام، او سعی می کرد برای دسترسی به پورن های کودکانه تماس برقرار کند. با این حال، اینستاگرام به محتوای صریح در پلتفرم خود اجازه نمی دهد. بنابر این گزارش، برای دور زدن این موضوع، فروشندگان «منو» محتوا را منتشر خواهند کرد. چنین پست‌هایی معمولاً حاوی تصویر «ایمن برای کار» از یک کودک به همراه فهرستی از نرخ‌ها برای محتوای خاص مانند عکس‌ها، ویدیوها و در برخی موارد حتی اعمال و برخوردهای سفارشی است.

اینستاگرام برای جلوگیری از آن چه می کند؟

متا، شرکت مادر اینستاگرام، این مشکل را در عملیات اجرایی خود پذیرفت و یک کارگروه داخلی برای رسیدگی به این مشکل ایجاد کرد. این شرکت به WSJ گفت: «استثمار از کودکان یک جنایت وحشتناک است. ما دائماً در حال بررسی راه‌هایی برای محافظت فعال در برابر این رفتار هستیم.»

این شرکت همچنین فاش کرد که تنها در دو سال گذشته 27 شبکه پدوفیل را حذف کرده است و قصد دارد تعداد بیشتری از این حساب‌ها را حذف کند. همچنین هزاران هشتگ را که باعث جنسی کودکان می‌شوند مسدود کرد و همچنین الگوریتم خود را برای توصیه نکردن حساب‌های پدوفیل به دیگران برای به حداقل رساندن چنین مواردی بهبود بخشید.

مطلب پیشنهادی:  هوش مصنوعی واشنگتن را زیر سوال می برد، اما اجماع هنوز قطعی نیست

یکی دیگر از سخنگویان متا به WSJ گفت که در ماه ژانویه، حدود 490000 حساب کاربری “فقط در ژانویه به دلیل نقض ایمنی کودکان” حذف شدند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا