El forense enumera el algoritmo de Instagram como causa que contribuye a la muerte del adolescente del Reino Unido [Updated]

Ante un tribunal de Londres esta semana, el forense Andrew Walker tuvo la difícil tarea de evaluar una pregunta que los defensores de la seguridad infantil se han estado haciendo durante años: ¿Cuán responsables son las redes sociales por los algoritmos de contenido que se envían a los menores? El caso ante Walker involucró a una niña de 14 años llamada Molly Russell, quien se quitó la vida en 2017 después de ver miles de publicaciones en plataformas como Instagram y Pinterest que promovían la autolesión. En un momento durante la investigación, Walker describió el contenido que a Russell le gustó o guardó en los días previos a su muerte como tan inquietante que el forense le dijo al tribunal que lo encontraba «casi imposible de ver». Hoy, Walker concluyó que la muerte de Russell no podía considerarse un suicidio, informa Bloomberg. En cambio, describió la causa de su muerte como «un acto de autolesión mientras sufría depresión y los efectos negativos del contenido en línea». Bloomberg informó que Walker tomó la decisión basándose en el uso «productivo» de Russell de Instagram (gustar, compartir o guardar 16 300 publicaciones en seis meses antes de su muerte) y Pinterest (5793 pines durante el mismo período) combinado con las especies y formas en que las plataformas proporcionó contenido para contribuir al estado depresivo de Russell. “Las plataformas funcionaron usando algoritmos para inducir períodos de atracones de imágenes, videoclips y texto bajo ciertas circunstancias” que “romantizaron los actos de autolesión” e “intentaron aislar y desalentar las discusiones con aquellos que podrían ayudar”, dijo Walker. Después del veredicto de Walker, la familia de Russell emitió una declaración que se presentó a Ars, calificándola como una decisión histórica y diciendo que el tribunal no revisó ni siquiera el contenido más preocupante que encontró Molly. «La última quincena ha sido particularmente dolorosa para nuestra familia, «, decía el comunicado de la familia Russell. «Extrañamos a Molly más de lo habitual, pero esperamos que la investigación de este caso ayude a prevenir muertes similares causadas por el preocupante contenido de promoción disponible hasta la fecha en las plataformas de redes sociales, incluidas las impulsadas por Meta». Bloomberg informa que el abogado de la familia, Oliver Sanders, instó a Walker a «enviar instrucciones a Pinterest, Meta, el gobierno del Reino Unido y el regulador de comunicaciones sobre cómo evitar que esto vuelva a suceder». En su declaración, la familia instó a los reguladores del Reino Unido a aprobar y hacer cumplir rápidamente la ley de seguridad en línea de Gran Bretaña, que, según informó el New York Times, podría introducir «nuevas protecciones para los usuarios más jóvenes en todo el mundo». anuncio publicitario

Las defensas de Pinterest y Facebook emplearon diferentes tácticas

Durante la investigación, Pinterest y Meta adoptaron diferentes enfoques para defender sus políticas. Pinterest se disculpó y dijo que no tenía la tecnología que tiene actualmente para moderar de manera más efectiva el contenido al que Molly ha estado expuesta. Pero la jefa de salud y bienestar de Meta, Elizabeth Lagone, frustró a la familia al decirle al tribunal que el contenido que Molly había estado viendo se consideraba «seguro» según los estándares de Meta. «Escuchamos a un meta ejecutivo senior describir este flujo mortal de contenido que los algoritmos de la plataforma enviaron a Molly como ‘SEGURO’ y que no viola las políticas de la plataforma», escribió la familia Russell en su comunicado. «Si este loco rastro de contenido que roba vidas fuera seguro, mi hija Molly probablemente todavía estaría viva». Un portavoz de Meta le dijo a Bloomberg que la compañía «está comprometida a garantizar que Instagram sea una experiencia positiva para todos, especialmente para los adolescentes». a «considerar cuidadosamente el informe completo del forense cuando se presente». La familia de Molly se aseguró de elogiar a Pinterest por su transparencia durante la investigación e instó a otras compañías de redes sociales a buscar orientación en Pinterest cuando se trata de tratar con alguien que desafía las decisiones de política de contenido. «Hoy, por primera vez, las plataformas tecnológicas han sido culpadas oficialmente por la muerte de un niño», dijeron los Russell en un comunicado. «En el futuro, como familia, esperamos que todas las demás empresas de redes sociales a las que se les pide que apoyen una investigación hayan seguido el ejemplo de Pinterest, hayan tomado medidas para aprender de esto y hayan participado genuina y respetuosamente en el proceso de investigación». Pinterest ha dicho que «la historia de Molly ha reforzado nuestro compromiso de crear un espacio seguro y positivo para nuestros Pinners». En respuesta al fallo, Pinterest dijo que había continuado fortaleciendo su «política sobre autolesiones». Ni Pinterest ni Meta respondieron de inmediato a la solicitud de comentarios de Ars. [Update: Pinterest told Ars that its thoughts are with the Russell family, saying it has listened carefully to the court and the family throughout the inquest. According to Pinterest, it is «committed to making ongoing improvements to help ensure that the platform is safe for everyone» and internally «the Coroner’s report will be considered with care.» Since Molly’s death, Pinterest said it has taken steps to improve content moderation, including blocking more than 25,000 self-harm related search terms and, since 2019, has combined «human moderation with automated machine learning technologies to reduce policy-violating content on the platform.»]

Deja una respuesta

Tu dirección de correo electrónico no será publicada.