به گزارش آبزرور، پژوهشگران دانمارکی یک شبکه خصوصی خودآزاری در بستر رسانههای اجتماعی متا ایجاد کردند. از جمله پروفایلهای جعلی افراد ۱۳ساله که در آن ۸۵ پست با محتوای مربوط به خودآزاری را به اشتراک گذاشتند؛ محتواهایی که بهتدریج شدت خشونت و آزار در آنها افزایش مییافت. بهعنوان مثال تصاویر خونین، تیغزنی و تشویق به خودزنی.
هدف ازاین پژوهش، آزمایش ادعای متا مبنی بر بهبود قابلتوجه فرآیندهای خود برای حذف محتواهای مضر بود. این شرکت مدعی است که در حال حاضر از هوش مصنوعی (AI) برای این کار استفاده میکند و حدود ۹۹درصد از محتواهای مضر را قبل از انتشار حذف میکند. اما Digitalt Ansvar، سازمانی که توسعه دیجیتال مسئولانه را ترویج میدهد، دریافت که در طول این آزمایش یک ماهه، حتی یک تصویرحذف نشد.هنگامی که متا ابزار ساده هوش مصنوعی خود را برای تجزیه و تحلیل انواع محتوا ایجاد کرد، توانست بهطور خودکار ۳۸درصد از تصاویر آسیب رساندن به خود و ۸۸درصد از شدیدترین تصاویر نامناسب را شناسایی کند.
این شرکت اعلام کرد: «این نشان میدهد، اینستاگرام به فناوریهایی دسترسی دارد که میتواند این مشکل را برطرف کند اما انتخاب کرده آن را بهطور مؤثر پیادهسازی نکند.» اما وقتی صحبت از نقض قوانین اتحادیه اروپا درخصوص انتشار محتواهای نامناسب به میان آمد، یکی از سخنگویان متا گفت: «محتوای تشویقکننده خودآزاری برخلاف خطمشیهای ماست و وقتی آن را تشخیص دادیم، این محتوا را حذف میکنیم. در نیمه اول سال ۲۰۲۴، بیش از ۱۲میلیون پست مربوط به خودکشی و خودآزاری را در اینستاگرام حذف کردیم که شامل ۹۹درصد از محتواهای نامناسب بود.
اوایل سالجاری، ما حسابهای نوجوان اینستاگرام را راهاندازی کردیم که نوجوانان را در سختترین تنظیمات کنترل محتوای حساس ما قرار میدهد، بنابراین احتمال اینکه محتوای حساس به آنها توصیه شود، کمتر است و در بسیاری از موارد ما این محتوا را بهطور کلی پنهان میکنیم.»
با این حال، پژوهش دانمارکی مذکور نشان داد که الگوریتم اینستاگرام به جای تلاش برای بستن شبکه آسیب رساندن به خود، بهطور فعال به گسترش آن کمک میکند. براساس این تحقیق نوجوانان ۱۳ ساله فرضی، پس از ارتباط با یکی از اعضای گروه خودآزاری، با پیشنهاد دوستی با همه اعضای گروه خودآزاری توسط اینستاگرام مواجه میشوند.
این مطالعه نشان میدهد: «الگوریتم اینستاگرام بهطور فعال به شکلگیری و گسترش شبکههای خودآزاری کمک میکند».
اسک هسبی هلم، مدیر اجرایی Digitalt Ansvar، در صحبت با آبزرور، گفت که این شرکت از نتایج شوکه شده است، زیرا تصور میکرد که با افزایش شدت خشونت تصاویر به اشتراک گذاشته شده، زنگهای هشدار روی پلتفرم به صدا درآیند.
هلم گفت: «ما فکر میکردیم که وقتی خشونت پستهای ارسالی را بهتدریج افزایش دهیم، به آستانهای میرسیم که هوش مصنوعی یا ابزارهای دیگر این تصاویر را شناسایی و حذف کنند اما شگفتی بزرگ اینکه آنها این کار را نکردند!»
او افزود: «این نگرانکننده است، زیرا فکر میکردیم که آنها نوعی ابزار برای کشف و شناسایی اینگونه محتواها دارند.»
هلم معتقد است که عدم تعدیل تصاویر خودآزاری میتواند به عواقب شدید منجر شود. چرا که خودآزاری بهشدت با خودکشی مرتبط است؛ بنابراین اگر کسی در مورد این گروهها کاری انجام ندهد و آنها علامتگذاری نشوند، برای والدین، مقامات و کسانی که میتوانند به نوعی کمک کنند، ناشناخته میمانند. براساس نتایج این پژوهش، متا گروههای خصوصی کوچک مانند گروهی که پژوهشگران ساختند را تعدیل نمیکند تا ترافیک و تعامل بالای خود را حفظ کند. هلم گفت: «ما نمیدانیم که متا گروههای بزرگتر را تعدیل میکند یا خیر اما مشکل این است که گروههای خودآزاری کوچک هستند.»
لوته روبک، روانشناس برجستهای که در ماه مارس امسال «گروه تخصصی جهانی متا» را پس از متهمکردن آن به چشم بستن بر محتوای مضر اینستاگرام در زمینه پیشگیری از خودکشی، ترک کرد؛ گفت از یافتههای پژوهش مذکور شوکه نشده، بلکه از اینکه متا صریحترین مطالب مرتبط با خشونت و خودزنی را حذف نکرده، شوکه شده است.
او گفت: «فکر نمیکردم تعداد حذف شده از ۸۵پست مورد پژوهش،عدد صفر باشد.امیدوار بودم که وضعیت بهترباشد.آنها بارها در رسانهها گفتهاند که همیشه درحال بهبود فناوری خود هستند و بهترین مهندسان جهان را دارند. این پژوهش ثابت میکند، این ادعا هر چند در مقیاس کوچک، درست نیست.» روبک گفت ناکامی متا در حذف تصاویر خودآزاری از پلتفرمهایش محرکی است که باعث میشود زنان و دختران جوان آسیبپذیر بیشتر به خودشان آسیب برسانند و به افزایش آمار خودکشی کمک کند.
این روانشناس گفت از زمانی که او گروه تخصصی جهانی متا را ترک کرده، وضعیت اینستاگرام فقط بدتر شده و تأثیر آن در بیمارانش بهوضوح قابل مشاهده است.
روبک معتقد است که موضوع خودآزاری در اینستاگرام برای کودکان خردسال و نوجوانان موضوع مرگ و زندگی است اما برای شرکت مادر متا این موضع به نوعی تنها خسارت جانبی به آنها در راه کسب درآمد و سود در پلتفرمهایشان است.