خودزنی در اینستاگرام!

محققان می‌گویندکه شرکت مادرمتا درحذف تصاویر نامناسب دررسانه‌های اجتماعی شکست خورده است.براساس یک پژوهش جدید، متا با حذف‌نکردن تصاویر صریح آزار و جرح و تشویق کسانی که با چنین محتوایی درگیرهستند، فعالانه به رشد محتوای خودآزاری در اینستاگرام کمک می‌کند. پژوهشگران اقدامات این شرکت را بسیار ناکافی می‌‌دانند.
محققان می‌گویندکه شرکت مادرمتا درحذف تصاویر نامناسب دررسانه‌های اجتماعی شکست خورده است.براساس یک پژوهش جدید، متا با حذف‌نکردن تصاویر صریح آزار و جرح و تشویق کسانی که با چنین محتوایی درگیرهستند، فعالانه به رشد محتوای خودآزاری در اینستاگرام کمک می‌کند. پژوهشگران اقدامات این شرکت را بسیار ناکافی می‌‌دانند.
کد خبر: ۱۴۸۳۸۵۳
 
به گزارش آبزرور، پژوهشگران دانمارکی یک شبکه خصوصی خودآزاری در بستر رسانه‌های اجتماعی متا ایجاد کردند. از جمله پروفایل‌های جعلی افراد ۱۳ساله که در آن ۸۵ پست با محتوای مربوط به خودآزاری را به اشتراک ‌گذاشتند‌؛ محتواهایی که به‌تدریج شدت خشونت و آزار در آنها افزایش می‌یافت. به‌عنوان مثال تصاویر خونین، تیغ‌زنی و تشویق به خودزنی. 
هدف ازاین پژوهش، آزمایش ادعای متا مبنی بر بهبود قابل‌توجه فرآیندهای خود برای حذف محتواهای مضر بود. این شرکت مدعی است که در حال حاضر از هوش مصنوعی (AI) برای این کار استفاده می‌کند و حدود ۹۹‌درصد از محتواهای مضر را قبل از انتشار حذف می‌‌کند. اما Digitalt Ansvar، سازمانی که توسعه دیجیتال مسئولانه را ترویج می‌دهد، دریافت که در طول این آزمایش یک ماهه، حتی یک تصویرحذف نشد.هنگامی که متا ابزار ساده هوش مصنوعی خود را برای تجزیه و تحلیل انواع محتوا ایجاد کرد، توانست به‌طور خودکار ۳۸‌درصد از تصاویر آسیب رساندن به خود و ۸۸‌درصد از شدیدترین تصاویر نامناسب را شناسایی کند. 
این شرکت اعلام کرد: «این نشان می‌دهد، اینستاگرام به فناوری‌هایی دسترسی دارد که می‌تواند این مشکل را برطرف کند اما انتخاب کرده آن را به‌طور مؤثر پیاده‌سازی نکند.» اما وقتی صحبت از نقض قوانین اتحادیه اروپا درخصوص انتشار محتواهای نامناسب به میان آمد، یکی از سخنگویان متا گفت: «محتوای تشویق‌کننده خودآزاری برخلاف خط‌مشی‌های ماست و وقتی آن را تشخیص دادیم، این محتوا را حذف می‌کنیم. در نیمه اول سال ۲۰۲۴، بیش از ۱۲‌میلیون پست مربوط به خودکشی و خودآزاری را در اینستاگرام حذف کردیم که شامل ۹۹‌درصد از محتواهای نامناسب بود.
اوایل سال‌جاری، ما حساب‌های نوجوان اینستاگرام را راه‌اندازی کردیم که نوجوانان را در سخت‌ترین تنظیمات کنترل محتوای حساس ما قرار می‌دهد، بنابراین احتمال این‌که محتوای حساس به آنها توصیه شود، کمتر است و در بسیاری از موارد ما این محتوا را به‌طور کلی پنهان می‌کنیم.»
با این حال، پژوهش دانمارکی مذکور نشان داد که الگوریتم اینستاگرام به جای تلاش برای بستن شبکه آسیب رساندن به خود، به‌طور فعال به گسترش آن کمک می‌کند. براساس این تحقیق نوجوانان ۱۳ ساله فرضی، پس از ارتباط با یکی از اعضای گروه خودآزاری، با پیشنهاد دوستی با همه اعضای گروه خودآزاری توسط اینستاگرام مواجه می‌شوند. 
این مطالعه نشان می‌دهد: «الگوریتم اینستاگرام به‌طور فعال به شکل‌گیری و گسترش شبکه‌های خودآزاری کمک می‌کند». 
اسک هسبی هلم، مدیر اجرایی Digitalt Ansvar، در صحبت با آبزرور، گفت که این شرکت از نتایج شوکه شده است، زیرا تصور می‌کرد که با افزایش شدت خشونت تصاویر به اشتراک‌ گذاشته‌ شده، زنگ‌های هشدار روی پلتفرم به صدا درآیند. 
هلم گفت: «ما فکر می‌کردیم که وقتی خشونت پست‌های ارسالی را به‌تدریج افزایش دهیم، به آستانه‌ای می‌رسیم که هوش مصنوعی یا ابزارهای دیگر این تصاویر را شناسایی و حذف کنند اما شگفتی بزرگ این‌که آنها این کار را نکردند!»
او افزود: «این نگران‌‌کننده است، زیرا فکر می‌کردیم که آنها نوعی ابزار برای کشف و شناسایی این‌گونه محتواها دارند.»
هلم معتقد است که عدم تعدیل تصاویر خودآزاری می‌تواند ‌به عواقب شدید منجر شود. چرا که خودآزاری به‌شدت با خودکشی مرتبط است؛ بنابراین اگر کسی در مورد این گروه‌ها کاری انجام ندهد و آنها علامت‌گذاری نشوند، برای والدین، مقامات و کسانی که می‌توانند به نوعی کمک کنند، ناشناخته می‌مانند. براساس نتایج این پژوهش، متا گروه‌های خصوصی کوچک مانند گروهی که پژوهشگران ساختند را تعدیل نمی‌کند تا ترافیک و تعامل بالای خود را حفظ کند. هلم گفت: «ما نمی‌دانیم که متا گروه‌های بزرگ‌تر را تعدیل می‌کند یا خیر اما مشکل این است که گروه‌های خودآزاری کوچک هستند.»
لوته روبک، روان‌شناس برجسته‌ای که در ماه مارس امسال «گروه تخصصی جهانی متا» را پس از متهم‌کردن آن به چشم بستن بر محتوای مضر اینستاگرام در زمینه پیشگیری از خودکشی، ترک کرد‌؛ گفت از یافته‌های پژوهش مذکور شوکه نشده، بلکه از این‌که متا صریح‌ترین مطالب مرتبط با خشونت و خودزنی را حذف نکرده، شوکه شده است. 
او گفت: «فکر نمی‌کردم تعداد حذف شده از ۸۵پست مورد پژوهش،عدد صفر باشد.امیدوار بودم که وضعیت بهترباشد.آنها بارها در رسانه‌ها گفته‌اند که همیشه درحال بهبود فناوری خود هستند و بهترین مهندسان جهان را دارند. این پژوهش ثابت می‌کند، این ادعا هر چند در مقیاس کوچک، درست نیست.» روبک گفت ناکامی متا در حذف تصاویر خودآزاری از پلتفرم‌هایش محرکی است که باعث می‌شود زنان و دختران جوان آسیب‌پذیر بیشتر به خودشان آسیب برسانند و به افزایش آمار خودکشی کمک کند. 
این روان‌شناس گفت از زمانی که او گروه تخصصی جهانی متا را ترک کرده، وضعیت اینستاگرام فقط بدتر شده و تأثیر آن در بیمارانش به‌وضوح قابل مشاهده است. 
روبک معتقد است که موضوع خودآزاری در اینستاگرام برای کودکان خردسال و نوجوانان موضوع مرگ و زندگی است اما برای شرکت مادر متا این موضع به نوعی تنها خسارت جانبی به آنها در راه کسب درآمد و سود در پلتفرم‌هایشان است. 
newsQrCode
ارسال نظرات در انتظار بررسی: ۰ انتشار یافته: ۰
روایت اول، شرط پیروزی

در گفت‌وگو با دکتر سیدمرتضی موسویان، ضرورت و اهمیت داشتن دکترین در رسانه و دلایل قوت و ضعف رسانه‌های داخلی و معاند را بررسی کرده‌ایم

روایت اول، شرط پیروزی

مجرمان در قاب شوک

در گفت‌وگو با تهیه‌کننده مستند معروف شبکه سه اولویت‌های موضوعی فصل جدید بررسی شد

مجرمان در قاب شوک

نیازمندی ها