Los padres en duelo pidieron a TikTok una verificación de edad, pero en su lugar obtuvieron calificaciones de edad [Updated]
(Actualización, 3:15 p. m. ET: Un portavoz de TikTok respondió con más detalle sobre cómo se asignan los niveles de contenido. Una vez que se carga un video, TikTok revisa los videos para asegurarse de que sigan las pautas de la comunidad. Una vez que el video pasa esta revisión y se puede ver en TikTok, «puede enviarse a nuestros compañeros de confianza y seguridad para moderación» si «su popularidad aumenta o si un miembro de la comunidad denuncia el video». Durante la moderación, se puede eliminar un video por violar los Términos de servicio de TikTok, o el moderador puede «asignar una capa de contenido al video». Al abordar las preocupaciones sobre los usuarios menores de 13 años en TikTok, el portavoz también detalló las formas en que TikTok ya ha tomado medidas para evitar que los usuarios menores de edad accedan a la plataforma: «Si bien la mayoría de las personas entienden la importancia de ser honestos sobre su edad, algunos no proporcionan la información correcta, lo que plantea un desafío para muchos servicios en línea. Por lo tanto, nuestro compromiso de hacer cumplir nuestros requisitos de edad mínima no termina con la edad, y estamos tomando una serie de enfoques adicionales para identificar y eliminar a los titulares de cuentas menores de edad implementados métodos y procesos para identificar y eliminar a los usuarios menores de edad, lo que ha resultado en que aproximadamente Se eliminaron 20 millones de cuentas en todo el mundo en el primer trimestre de 2022». TikTok también espera que «Content Levels brinde un nivel adicional de protección para aquellos miembros de la comunidad que declaran sinceramente que son menores de 18 años».
historia original: Las características de seguridad de TikTok fueron el foco de una demanda reciente de padres que afirman que el diseño adictivo de la aplicación es responsable de la muerte de al menos siete niños, seis de los cuales eran demasiado pequeños para estar en TikTok. Estos padres sugirieron que TikTok tome medidas para proteger a los usuarios jóvenes, instando a la plataforma a agregar un proceso de verificación de edad para restringir el contenido o cancelar las cuentas de niños menores de 13 años, la edad mínima requerida para participar en TikTok. Sin embargo, esa no es la dirección que TikTok ha decidido tomar. Al menos no todavía. En cambio, TikTok anunció el miércoles que está agregando nuevas medidas de seguridad para todos los usuarios para limitar la exposición a contenido dañino y darles a los usuarios más control sobre lo que aparece en sus feeds. Esto incluye dar a los usuarios la capacidad de bloquear contenido que contenga palabras, hashtags o sonidos específicos. TikTok se enfoca específicamente en mejorar las medidas de seguridad para los «miembros de la comunidad adolescente» de TikTok y «está trabajando para crear un nuevo sistema para organizar el contenido según la madurez del tema», esencialmente creando calificaciones de madurez para los videos de TikTok, como las calificaciones que ves en películas o videos. juegos. «En las próximas semanas, comenzaremos a implementar una versión temprana para evitar que el contenido con temas aparentemente maduros llegue a una audiencia de 13 a 17 años», escribió Cormac Keenan, director de confianza y seguridad de TikTok, en la publicación del blog. Además, TikTok ha proporcionado una actualización de los pasos anunciados anteriormente que está tomando con su algoritmo para proteger a los usuarios de desplazarse sin cesar a través de «experiencias de visualización potencialmente desafiantes o desencadenantes». «El año pasado comenzamos a probar formas de evitar recomendar un montón de contenido similar sobre temas que podrían estar bien como un solo video pero que podrían ser problemáticos cuando se ven repetidamente, como: B. Problemas relacionados con la dieta, el estado físico extremo, la tristeza y otros problemas de bienestar”, escribió Keenan. «También probamos formas de detectar si nuestro sistema estaba recomendando inadvertidamente una selección más limitada de contenido a un espectador». Probablemente porque los estándares de la comunidad de TikTok limitan las cuentas a 13 años o más, TikTok solo ha tenido el impacto deseado hasta ahora para las más nuevas Seguridad discutida características en usuarios adultos y jóvenes. Eso significa que TikTok aún tiene que tomar medidas para abordar las preocupaciones que tienen los padres sobre «cientos de miles de niños tan pequeños como de 6 años», que la demanda alega que TikTok sabe que «actualmente está usando su producto de redes sociales». sin características de seguridad diseñado solo para ellos. TikTok no respondió de inmediato a una solicitud de comentarios sobre las nuevas características de seguridad o cómo funcionarían las clasificaciones por edad. No está claro si las características de seguridad futuras, como la verificación de edad, están planeadas para abordar las crecientes preocupaciones sobre los niños menores de 13 años, que, según se informa, sufren daños al usar la aplicación.