Instagram ha sido criticada después de que un estudio danés revelara que no pudo eliminar el contenido de autolesiones. Crédito: Shutterstock: Sergei Elagin
Instagram puede estar fomentando activamente la propagación de autolesiones entre los adolescentes según un nuevo estudio y se culpa a Meta por no eliminar imágenes explícitas en el sitio de redes sociales.
Investigadores daneses han estado tratando de llegar al fondo de cómo Instagram puede estar incitando a los adolescentes a involucrarse en prácticas de autolesión y han criticado a la plataforma de redes sociales por no controlar el contenido e incitar a los seguidores de las redes sociales a interactuar con el contenido y hacerse amigos entre sí. Ha dicho que su moderación es “extremadamente inadecuada”.
Para investigar más a fondo, investigadores daneses crearon una red privada de autolesiones en Instagram, que incluía perfiles falsos de adolescentes de tan solo 13 años. Aquí, compartieron 85 piezas de contenido relacionado con la autolesión que aumentaban gradualmente en gravedad, incluyendo sangre, hojas de afeitar y promoción de la autolesión. El estudio tenía como objetivo poner a prueba la afirmación de Meta: afirmaba haber mejorado significativamente la eliminación de contenidos dañinos mediante inteligencia artificial (IA). También afirmó que elimina alrededor del 99 por ciento del contenido dañino antes de que los usuarios puedan denunciarlo.
Instagram criticado por no eliminar imágenes explícitas de autolesiones
Digitalt Ansvar (Responsabilidad Digital), una organización que promueve el desarrollo digital responsable, negó estas afirmaciones y descubrió que no se eliminó ni una sola imagen en el experimento que duró un mes. Es evidente que Instagram no cumplía con su política ni con la legislación de la UE.
La Ley de Servicios Digitales obliga a los grandes servicios digitales a identificar y eliminar riesgos que puedan provocar graves consecuencias negativas para la salud física o mental. Meta había dicho: “El contenido que fomenta la autolesión va en contra de nuestras políticas y eliminamos este contenido cuando lo detectamos. En la primera mitad de 2024, eliminamos más de 12 millones de artículos relacionados con el suicidio y las autolesiones en Instagram, el 99 % de los cuales eliminamos de forma proactiva. A principios de este año, lanzamos cuentas para adolescentes de Instagram, que colocarán a los adolescentes en la configuración más estricta de nuestro control de contenido sensible, por lo que es incluso menos probable que se les recomiende contenido sensible y, en muchos casos, ocultamos este contenido por completo”.
Sin embargo, el estudio danés descubrió que el algoritmo de Instagram en realidad estaba fomentando la expansión de páginas dañinas y redes de autolesiones.
Los algoritmos de Instagram promueven la expansión de sitios de autolesiones
El estudio danés encontró que en lugar de intentar cerrar la red de autolesiones, el algoritmo de Instagram estaba ayudando activamente a expandirla. La directora ejecutiva de Digitalt Ansvar comentó lo sorprendida que estaba de que, aunque las imágenes eran graves, la plataforma parecía no mostrar ninguna reacción y la IA era ineficiente para eliminarlas.
El problema que surge es que las imágenes de autolesión pueden tener “consecuencias graves”, incluido el suicidio. Los grupos autolesivos tienden a ser pequeños, pero si no hay moderación o conciencia, seguirán floreciendo a medida que Meta siga promoviendo su crecimiento. La psicóloga Lotte Rubæk abandonó un grupo mundial de expertos después de acusar a Meta de “hacer la vista gorda” ante el contenido dañino de Instagram. Y añadió: “No hubiera pensado que sería cero de las 85 publicaciones que eliminarían. Esperaba que fuera mejor”.
Mientras tanto, existe el temor de que Meta no esté cumpliendo sus promesas y que el hecho de no eliminar imágenes de autolesiones esté “provocando” que mujeres jóvenes y niñas vulnerables se autolesionen aún más, lo que podría ser un factor en el aumento de las cifras de suicidio.