"Saben del contenido dañino y no hacen nada" dice psicóloga líder de equipo en Instagram
Suscribirme
19/03/2024

"Saben del contenido dañino y no hacen nada" dice psicóloga líder de equipo en Instagram

Lotte Rub Rotk, quien ha estado en el grupo global de expertos Meta durante más de tres años, dijo al Observador que el gigante tecnológico está en curso no eliminar imágenes de autolesión desde sus plataformas, “ está desencadenando a mujeres y niñas jóvenes vulnerables para hacerse daño aún más y contribuir al aumento de las cifras de suicidios"

Compartí la noticia


Una psicóloga líder que asesora a Meta sobre la prevención del suicidio y las autolesiones ha renunciado a su papel, acusando al gigante tecnológico de “ hacer la vista gorda” a contenido dañino en Instagram, ignorar repetidamente el asesoramiento de expertos y priorizar las ganancias sobre las vidas.

Lotte Rub Rotk, quien ha estado en el grupo global de expertos Metaaks durante más de tres años, dijo al Observador que el gigante tecnológico está en curso no eliminar imágenes de autolesión desde sus plataformas, “ está desencadenando a” mujeres y niñas jóvenes vulnerables para hacerse daño aún más y contribuir al aumento de las cifras de suicidios.

Tal es su desilusión con la empresa y su aparente falta de deseo de cambiar, la psicóloga danesa ha renunciado al grupo, alegando que a Meta no le importa el bienestar y la seguridad de sus usuarios. En realidad, dijo, la compañía está utilizando contenido dañino para mantener a los jóvenes vulnerables enganchados a sus pantallas en interés de las ganancias de la compañía.

En su carta de renuncia, escribió: “Ya no puedo ser parte del panel de expertos de Metaaks SSI, como ya no creo que nuestra voz tenga un impacto positivo real en la seguridad de los niños y jóvenes en sus plataformas

En una entrevista con el Observador, Rub Rotk dijo: “En la superficie parece que les importa, tienen estos grupos de expertos, etc., pero detrás de escena hay otra agenda que es una prioridad más alta para ellos

Esa agenda, dijo, era “cómo mantener la interacción de sus usuarios’ y ganar su dinero manteniéndolos en este apretado control en la pantalla, recopilando datos de ellos, vender los datos, etc.”
Un portavoz de Meta dijo: “Suicidio y autolesiones son problemas complejos y los tomamos increíblemente en serio. Weimove consultó con expertos en seguridad, incluidos los de nuestro grupo asesor de suicidio y autolesiones, durante muchos años y sus comentarios nos han ayudado a continuar logrando un progreso significativo en este espacio.

“La mayoría de los últimos tiempos anunciamos que weizll ocultará contenido que discute el suicidio y la autolesión de los adolescentes, incluso si es compartido por alguien a quien siguen, una de las muchas actualizaciones que hemos hecho después de una discusión reflexiva con nuestros asesores.”

La advertencia de Rub Rotk viene como una nueva investigación de Ofcom publicado la semana pasada se descubrió que el contenido violento en línea es “unavoidable” para niños en el Reino Unido, muchos de los cuales están expuestos por primera vez cuando aún están en la escuela primaria. Entre las principales aplicaciones mencionadas por los entrevistados estaba Instagram.

Rub Rotk, quien lidera el equipo de autolesión en psiquiatría infantil y adolescente en la Región Capital de Dinamarca, ha, se abordó por primera vez sobre unirse al selecto grupo de expertos – que tiene 24 miembros que cotizan en bolsa – en diciembre de 2020. La invitación se produjo después de que criticara públicamente a Meta, entonces conocida como Facebook, a través de una red de Instagram vinculada a suicidios de mujeres jóvenes en Noruega y Dinamarca después de un documental de la emisora danesa DR.

Ella aceptó unirse con la esperanza de ayudar a cambiar la plataforma para hacerla más segura para los jóvenes. Después de un par de años de hacer que sus sugerencias ignoraran – la red original de la que criticaba todavía existe – llegó a la conclusión de que el panel era solo para mostrar.

Ahora cree que la invitación podría haber sido un intento de silenciarla. “Tal vez querían que fuera parte de ellos para no ser tan crítico con ellos en el futuro.”

En correos electrónicos vistos por el Observador Rub Rotk planteó las dificultades a las que se enfrentaban los usuarios al tratar de informar imágenes potencialmente desencadenantes con Meta en octubre de 2021. En correspondencia con Martin Ruby, jefe de políticas públicas de Meta en los países nórdicos, ella dijo que había tratado de informar una imagen de una mujer demacrada, pero recibió un mensaje de Instagram diciendo que no tenían suficientes moderadores para mirar la imagen, que se quedó en la plataforma.

En respuesta, Ruby dijo en noviembre de 2021: “ Nuestra gente lo está mirando, pero no es tan simple. ” En el mismo correo electrónico, mencionó la red secreta de Instagram que Rubæk había criticado originalmente, diciendo que Meta estaba “ mirando más de cerca ”.

Pero a pesar de que es vínculos bien documentados con suicidios, Rubæk dice que la red sigue funcionando hoy.

Los pacientes de Rubæk le dicen que han tratado de informar imágenes de autolesiones en Instagram, pero que a menudo permanecen. Un cliente dijo que después de informar una imagen, desapareció, pero luego la vio a través de la cuenta de un amigo, lo que sugiere que solo se había movido de su vista. Meta “ hace muchos trucos ” para evitar eliminar contenido, dijo Rubæk.

“La IA es tan inteligente, encontrando incluso el pezón más pequeño en una foto.” Pero cuando se trata de imágenes gráficas de autolesiones que han demostrado inspirar a otros a hacerse daño a sí mismos, agregó, parece ser una historia diferente.
 

Suscribirme