اخبار فناوری

تیک‌تاک و اینستاگرام به ترویج محتوای مرتبط با خودکشی برای نوجوانان متهم شدند

یک پژوهش تازه در مورد شبکه‌های اجتماعی نشان داده که «الگوریتم‌های مضر نوجوانان را با میزان هولناکی از محتوای آسیب‌رسان بمباران می‌کنند و در پلتفرم‌های تیک‌تاک و اینستاگرام، این اتفاق در مقیاس صنعتی رخ می‌دهد.»

نبض فناوری

به گزارش «نبض فناوری» به نقل از سیتنا، بر اساس یک گزارش جدید، شبکه‌های اجتماعی همچنان نوجوانان را به سمت محتوای مرتبط  با خودکشی، خودآزاری و «افسردگی شدید» سوق می‌دهند.

بنیاد بریتانیایی «مالی رز» Molly Rose برای انجام این پژوهش از حساب‌های تیک تاک و اینستاگرام ساختگی متعلق به دختری ۱۵ ساله که پیش‌تر با چنین محتواهایی تعامل داشته، استفاده کرد.

این تحقیق نشان داد که تقریباً تمام ویدئوهای پیشنهادی در این دو پلتفرم در ارتباط با خودکشی، خودآزاری و افسردگی بودند.

این گزارش افزوده که صفحه مربوط به «محتوای شخصی‌سازی‌شده» تیک‌تاک، به‌طور مرتب ویدئوهایی را پیشنهاد می‌کرد که «به‌طور آشکار خودکشی را تبلیغ و تحسین می‌کردند» و حتی روش‌های خاص خودکشی را توصیه می‌کردند. 

در اینستاگرام، کاربران ساختگی این نوع محتوا را  بیشتر در ویدئوهای کوتاه پلتفرم (Reels)، مشاهده می‌کردند. 

اندی باروز، مدیرعامل بنیاد مالی رز، در مورد نتایج این تحقیق گفت: «الگوریتم‌های مضر نوجوانان را با میزان هولناکی از محتوای آسیب‌دهنده بمباران می‌کنند و در محبوب‌ترین پلتفرم‌ها، این اتفاق در مقیاس صنعتی رخ می‌دهد.» 

این پژوهش چند هفته پیش از اجرایی شدن قانون ایمنی آنلاین بریتانیا در ماه ژوئیه ۲۰۲۵ انجام شد؛ قانونی که شبکه‌های اجتماعی را موظف می‌کند «محتوای غیرقانونی مربوط به خودکشی و آسیب به خود را به سرعت حذف کنند» و ازکاربران «به طور فعالانه» در برابر آن محافظت نمایند.

بنیاد مالی رز یادآور شد که یافته‌های جدید تفاوت چندانی با شرایط سال ۲۰۱۷ ندارد؛ سالی که مولی راسل، دختر ۱۴ ساله، پس از مواجهه با چنین محتواهایی دست به خودکشی زد و دادگاه اعلام کرد که این نوع ویدئوها نقش مهمی در مرگ او داشته‌اند.

این بنیاد خواستار اقدام‌های جدی‌تر از سوی «آفکام»، نهاد ناظر بر رسانه‌ها در بریتانیا، و تقویت قانون ایمنی آنلاین شد.

با این حال، این دو شرکت نتایج این تحقیق را رد کرده‌اند. سخنگوی تیک‌تاک گفت این نتایج «بازتاب واقعیت تجربه کاربران نیست» و ادعا کرد که ۹۹٪ محتوای ناقض قوانین، پیش از گزارش کاربران حذف می‌شود. 

متا (مالک اینستاگرام) نیز روش تحقیق را «ناکافی» دانست و تأکید کرد که این شرکت سال گذشته «حساب‌های ویژه نوجوانان» را معرفی کرد که با محدودیت‌های ایمنی ساخته شده‌اند و دسترسی  به محتوای حساس را کاهش می‌دهند. 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا