You are currently viewing ¿Sabías esto sobre Instagram? La impactante verdad de su inacción contra el contenido de autolesión

¿Sabías esto sobre Instagram? La impactante verdad de su inacción contra el contenido de autolesión

Una reciente investigación de Digital Ansvar desmonta las afirmaciones de Instagram sobre la eliminación de contenido de autolesión mediante inteligencia artificial (IA). El estudio revela que la plataforma no ha tomado medidas contra ninguna de las publicaciones analizadas, exponiendo a los usuarios más vulnerables, especialmente a menores, a graves riesgos.

Investigación: ¿Cómo se llevó a cabo el estudio?

Para investigar la supuesta moderación automática de contenido de autolesión por parte de Instagram, Digital Ansvar creó una red falsa de autolesión en la plataforma. Esta red incluía diez perfiles privados con edades tanto menores como mayores de 18 años, diseñados para parecer interesados en las autolesiones.

Durante un periodo de cuatro semanas, los diez perfiles compartieron un total de 85 publicaciones explícitas relacionadas con autolesiones. Los resultados fueron alarmantes: Instagram no eliminó ni una sola publicación. Esto incluye contenido gráfico que mostraba sangre, objetos peligrosos como hojas de afeitar, y mensajes que fomentaban el comportamiento autodestructivo.

Según Ask Hesby Holm, director de Digital Ansvar, “es muy preocupante que ni siquiera el contenido más evidente haya sido moderado”.

Resultados clave del estudio:

  1. Falta total de acción contra contenido dañino. El estudio concluyó que Instagram no eliminó ninguno de los 85 contenidos publicados, a pesar de su naturaleza explícita y peligrosa.
  2. Protección insuficiente para menores. Cinco de los perfiles creados representaban a menores de 18 años. Ninguno de ellos recibió advertencias ni orientación sobre cómo buscar ayuda.
  3. La IA podría intervenir, pero no se utiliza. Aunque Instagram afirma usar IA para moderar contenido, el estudio demostró que esta tecnología es capaz de identificar hasta el 38 % de las publicaciones totales y el 88 % de las más gráficas, pero no se activa para eliminarlas.
  4. El algoritmo fomenta redes de autolesión. El algoritmo de recomendaciones de Instagram promueve conexiones entre perfiles similares, facilitando la creación de redes peligrosas incluso para usuarios de tan solo 13 años.

Alternativas para proteger a los menores:

Dada la exposición a riesgos que plataformas como Instagram representan para los niños y adolescentes, es fundamental buscar soluciones seguras que permitan a padres y educadores mantenerse conectados con ellos sin exponerlos al mundo digital. Una opción efectiva podría ser el reloj inteligente con GPS y llamadas, que combina conectividad y seguridad en un dispositivo diseñado específicamente para los más pequeños. Este tipo de tecnología ofrece un control adecuado sin comprometer la privacidad ni abrir la puerta a contenido perjudicial.

Implicaciones éticas y legales para Instagram:

Además de incumplir sus propias normas y directrices comunitarias al no eliminar el contenido de autolesiones en la investigación de Digital Ansvar, Instagram también se aparta de sus obligaciones en el reglamento de la UE sobre Servicios Digitales (DSA), según evalúa el director de Digital Ansvar. Asimismo, el hecho de que su algoritmo facilite la propagación de redes de autolesión muestra una falta grave de ética en la moderación de contenido. Según Ask Hesby Holm, “estos resultados demuestran que la seguridad de los usuarios más jóvenes no es una prioridad para Meta”.

Conclusión:

Los hallazgos de esta investigación evidencian una grave desconexión entre las promesas de Instagram y sus acciones reales. Aunque dispone de tecnología para identificar contenido de autolesión, su inacción sugiere una alarmante falta de interés en la seguridad de sus usuarios, especialmente los menores. Más preocupante aún, su algoritmo facilita la creación de redes que promueven conductas autodestructivas, exacerbando el problema en lugar de mitigarlo.

Esta actitud no solo compromete la salud mental de los usuarios, sino que también plantea serias cuestiones éticas y legales, especialmente bajo las normativas europeas. Si Instagram no toma medidas concretas y transparentes, su credibilidad y, lo más importante, el bienestar de sus usuarios estarán en grave peligro.

Deja tus pensamientos aquí...