افشای شبکه های پدوفیل وحشتناک در اینستاگرام؛ این برنامه به دلیل نقش مورد انتقاد قرار گرفته، کاربران را ممنوع می کند
پلتفرمهای رسانههای اجتماعی یک عالم کوچک از جامعه هستند. شما همه جوامع جالب و سرگرم کننده را دارید، اما مکان های وحشتناکی تاریک و نفرت انگیز را نیز دارید. اکنون اینستاگرام با گزارشی فاش شده است که ادعا می کند الگوریتم های این برنامه در واقع به اتصال شبکه های پدوفیل کمک کرده است. یک گزارش نشان میدهد که شبکههای عظیمی از پدوفیلها آشکارا بر روی این پلتفرم کار میکنند و الگوریتم آن نقشی در ارتباط بین افرادی که به دنبال پورنوگرافی کودکان هستند با کسانی که آن را ارائه میدهند، ایفا میکند.
این گزارش بر اساس تحقیقات وال استریت ژورنال (WSJ) و محققان دانشگاه استنفورد و دانشگاه ماساچوست آمهرست است. طبق یافتههای آنها، حسابهایی نیز وجود داشت که خریداران میتوانستند «اعمال جنسی خاص» را انجام دهند یا حتی «تاریخ» ترتیب دهند.
چگونه اینستاگرام در ارتباط با پدوفیل ها نقش دارد
لازم به ذکر است که الگوریتم ها برای پیوند دادن این گروه ها به طور خاص طراحی نشده اند. آنها طراحی شده اند تا به کاربران کمک کنند محتوای مرتبط را در پلتفرم پیدا کنند و اگر کاربر محتوای خاص را جستجو کند یا وقت خود را روی هشتگ های خاص بگذراند، در نهایت محتوایی به او نشان داده می شود که به آنها اجازه می دهد با کسانی که آنها را عرضه می کنند و می فروشند ارتباط برقرار کنند.
بر اساس این گزارش، برخی از هشتگهای صریح و عمیقا توهینآمیز مانند #pedowhore و #preteensex در اینستاگرام کار میکردند که در آن هزاران پست منتشر شد. این گروه های پدوفیل از چنین مکان هایی بازدید می کردند تا با فروشندگان پورنوگرافی کودکان تماس بگیرند. اینستاگرام نیز چنین فروشندگانی را توصیه می کند و به شکوفایی کل شبکه کمک می کند.
در واقع، یافتههای این گزارش نشان میدهد که بسیاری از این حسابهای فروشنده وانمود میکنند که خودشان کودک هستند و از «دستههای جنسی آشکارا» استفاده میکنند.
«اینکه یک تیم متشکل از سه دانشگاه با دسترسی محدود میتوانند چنین شبکه عظیمی را بیابند، باید آلارمهای متا را به صدا درآورند. الکس استاموس، رئیس رصدخانه اینترنت استنفورد و افسر ارشد امنیت متا تا سال 2018، به WSJ گفت: امیدوارم شرکت دوباره روی محققان انسانی سرمایهگذاری کند.
نحوه عملکرد این شبکه ها در اینستاگرام
هنگامی که به یک پدوفیل پیشنهاد یک اکانت فروشنده داده شد، با تشویق الگوریتم اینستاگرام، او سعی می کرد برای دسترسی به پورن های کودکانه تماس برقرار کند. با این حال، اینستاگرام به محتوای صریح در پلتفرم خود اجازه نمی دهد. بنابر این گزارش، برای دور زدن این موضوع، فروشندگان «منو» محتوا را منتشر خواهند کرد. چنین پستهایی معمولاً حاوی تصویر «ایمن برای کار» از یک کودک به همراه فهرستی از نرخها برای محتوای خاص مانند عکسها، ویدیوها و در برخی موارد حتی اعمال و برخوردهای سفارشی است.
اینستاگرام برای جلوگیری از آن چه می کند؟
متا، شرکت مادر اینستاگرام، این مشکل را در عملیات اجرایی خود پذیرفت و یک کارگروه داخلی برای رسیدگی به این مشکل ایجاد کرد. این شرکت به WSJ گفت: «استثمار از کودکان یک جنایت وحشتناک است. ما دائماً در حال بررسی راههایی برای محافظت فعال در برابر این رفتار هستیم.»
این شرکت همچنین فاش کرد که تنها در دو سال گذشته 27 شبکه پدوفیل را حذف کرده است و قصد دارد تعداد بیشتری از این حسابها را حذف کند. همچنین هزاران هشتگ را که باعث جنسی کودکان میشوند مسدود کرد و همچنین الگوریتم خود را برای توصیه نکردن حسابهای پدوفیل به دیگران برای به حداقل رساندن چنین مواردی بهبود بخشید.
یکی دیگر از سخنگویان متا به WSJ گفت که در ماه ژانویه، حدود 490000 حساب کاربری “فقط در ژانویه به دلیل نقض ایمنی کودکان” حذف شدند.