Molly Russell, una londinense de 14 años que murió por lesiones autoinfligidas en 2017, no se suicidó, según un forense británico que la examinó.
“No sería seguro dejar el suicidio como una conclusión”, dijo Andrew Walker en una audiencia en la corte el viernes luego de una investigación de dos semanas. La BBC informó. En cambio, según Walker, “murió de un acto de autolesión mientras sufría de depresión y los efectos negativos del contenido en línea”. Los forenses son jueces en el Reino Unido y la conclusión equivale a una sentencia legal.
Antes de su muerte, Russell vio e interactuó con más de 2000 publicaciones de Instagram relacionadas con el suicidio, las autolesiones o la depresión, según un informe de Il Guardiano. El papel también presentó cientos de imágenes relacionadas con autolesiones que se encuentran en la cuenta de Pinterest de Russell. Según los informes, Pinterest había enviado correos electrónicos de recomendación de contenido para adolescentes con títulos como “10 Pines de depresión que te pueden gustar”.
“Es probable que el material anterior visto por Molly, que ya sufría una enfermedad depresiva y era vulnerable debido a su edad, la influenció negativamente y contribuyó a su muerte en más de una forma mínima”, testificó Walker, según The Keeper. .
La investigación, que se inició cinco años después de la muerte del adolescente, se había retrasado varias veces anteriormente, en parte debido a solicitudes de edición de contenido de Meta, propietario de Instagram.
Durante la investigación, los ejecutivos de ambos Meta Y Según se informa, Pinterest se disculpó y reconoció que Molly encontró contenido en las plataformas de empresas que no deberían haber estado allí.
En los últimos años, más familias han demandado a empresas de tecnología por el supuesto papel que han jugado las redes sociales en las lesiones y muertes de jóvenes, incluidas al menos tres demandas pendientes en los Estados Unidos.
Sin embargo, el fallo del viernes parece ser único, ya que la conclusión del forense es la “primera vez en todo el mundo” que se determina que el contenido de un sitio de redes sociales contribuye directamente a la muerte de un niño, Andrew Burrows, Jefe de Política de Seguridad Infantil en Línea en la Asociación Benéfica Infantil con sede en el Reino Unido NSPCCle dijo al Belfast Telegraph.
En una declaración posterior a la conclusión del forense, el director general de la NSPCC, Peter Wanless, advirtió: “Esto debería causar conmoción en todo Silicon Valley: las empresas de tecnología deben esperar que se les responsabilice cuando pongan a raya la seguridad de los niños en lugar de las decisiones comerciales”, informó la BBC.
En un correo electrónico a Gizmodo, un portavoz de Meta dijo que, según los datos autoinformados, en los primeros tres meses de 2022, Instagram logró eliminar el 98 % de todo el contenido suicida y autodestructivo en la plataforma antes de lo informado por usuarios, conectándose a un apoyo de los padres pagina de recursos
“Nuestros pensamientos están con la familia Russell y todos los afectados por esta trágica muerte. Estamos comprometidos a garantizar que Instagram sea una experiencia positiva para todos, especialmente para los adolescentes, y evaluaremos cuidadosamente el informe completo del forense cuando lo proporcione”, dijo el vocero.
En una declaración enviada por correo electrónico, un portavoz de Pinterest le dijo a Gizmodo: “Nuestros pensamientos están con la familia Russell. Escuchamos con mucha atención todo lo que dijeron el forense y la familia durante la investigación. Pinterest está comprometida con las mejoras continuas para garantizar que la plataforma sea segura”. para todos y el informe del forense será considerado cuidadosamente”.
Desde la muerte de Russell, su familia se ha convertido en una firme defensora de la seguridad en línea, utilizando su plataforma para tratar de evitar que vuelva a ocurrir la misma tragedia.
Al otro lado del Océano Atlántico, más familias están entablando demandas contra las empresas de redes sociales en líneas similares. En abril, una familia de Wisconsin demandó a Snapchat y Meta por la muerte de un joven de 17 años, alegando que las empresas “a sabiendas y a propósito” crean productos nocivos y adictivos. Un mes después, la madre de una niña de 10 años presentó una demanda contra TikTok por el llamado “Blackout Challenge”, que, según ella, mató a su hija. Y en junio, dos padres en California demandaron a Facebook Papers en su demanda contra Meta por el trastorno alimentario de su hija.
Las investigaciones han demostrado que las redes sociales pueden tener un impacto perjudicial en la salud mental de los adolescentes, aunque aún no se ha resuelto el grado de responsabilidad legal que recae sobre las empresas. Numerosos estudios recientes encontró vínculos entre el mayor tiempo dedicado a las redes sociales y el mayor riesgo de ansiedad, depresión y otras afecciones de salud mental en los jóvenes. Además, las empresas de redes sociales como Meta parecen estar conscientes del daño que causan sus productossegún documentos internos.
Si usted o alguien que conoce está teniendo una crisis o pensando en suicidarse, llame o envíe un mensaje de texto a Suicide and Crisis Lifeline al 988. También puede llamar a la Línea Nacional de Prevención del Suicidio al 800-273-8255 o enviar un mensaje de texto a la Línea de Texto de Crisis al 741-741.