TikTok presenta nuevas herramientas para proteger a los usuarios de contenido potencialmente ofensivo y dañino

En medio de varias investigaciones sobre cómo protege (o no protege) a los usuarios más jóvenes, TikTok ha anunciado un nuevo conjunto de filtros y opciones para ofrecer más formas de limitar la exposición no deseada dentro de la aplicación. En primer lugar, TikTok introdujo una nueva forma para que los usuarios filtren automáticamente los videos que contienen palabras o hashtags que no quieren ver en su feed.

Como puede ver en este ejemplo, ahora puede bloquear hashtags específicos desde la pestaña Detalles al editar un clip. Entonces, si por alguna razón (extraño ejemplo de la gente de TikTok) ya no desea ver videos con la etiqueta #icecream, ahora puede indicarlo en su configuración, mientras que también puede bloquear contenido que contenga palabras clave seleccionadas en la descripción. Lo cual no es perfecto, ya que el sistema no reconoce el contenido real, solo lo que las personas escribieron manualmente en sus notas de descripción. Entonces, si ha tenido fobia a los helados, todavía existe la posibilidad de que enfrente una visión perturbadora en la aplicación, pero ofrece otra forma de administrar su experiencia de una manera nueva. TikTok dice que la opción «dentro de las próximas semanas» estará disponible para todos los usuarios. TikTok también está ampliando sus límites para publicar contenido relacionado con temas potencialmente dañinos, como dietas, ejercicios extremos y tristeza, entre otros. En diciembre pasado, TikTok lanzó una nueva serie de pruebas para examinar cómo podría reducir los efectos potencialmente dañinos del aumento de algoritmos al limitar la cantidad de videos en ciertas categorías sensibles que se destacan en los feeds For You de los usuarios. Ahora está entrando en la siguiente fase de este proyecto. Como explicó TikTok: «Como resultado de nuestras pruebas, hemos mejorado la experiencia de visualización para que los espectadores ahora vean menos videos sobre estos temas al mismo tiempo. Dados los matices involucrados, todavía estamos repitiendo este trabajo. Por ejemplo, algunos tipos de contenido pueden tener temas tanto alentadores como tristes, como el contenido de recuperación de trastornos alimentarios». Esta es un área interesante de investigación, esencialmente destinada a evitar que las personas tropiecen con información de Internet y posiblemente se conviertan en obsesionado con los elementos nocivos. Al limitar cuánto se puede ver sobre un tema determinado a la vez, esto podría tener un impacto positivo en el comportamiento del usuario. Finalmente, TikTok también está trabajando en un nuevo sistema de calificación de contenido, como calificaciones de películas para clips de TikTok. “En las próximas semanas, comenzaremos a implementar una versión temprana para evitar que el contenido con temas obviamente para adultos llegue a audiencias de entre 13 y 17 años. Si determinamos que un video contiene temas complejos o para adultos, p. B. Escenas ficticias que pueden ser demasiado aterradoras o intensas para el público más joven: al video se le asignará una clasificación de edad para evitar que cualquier persona menor de 18 años lo vea a través de la experiencia TikTok”.

TikTok también ha implementado nuevas calificaciones de seguridad de la marca para ayudar a los anunciantes a evitar colocar sus promociones junto a contenido potencialmente controvertido, y el mismo proceso de detección podría aplicarse aquí para brindar una mejor protección contra temas y materiales para adultos. Sin embargo, sería interesante ver con qué precisión el sistema de TikTok reconoce dicho contenido. ¿Qué tipo de identificación de entidad tiene TikTok, qué pueden etiquetar realmente sus sistemas de IA en los videos y en función de qué parámetros? Sospecho que el sistema de TikTok podría ser muy avanzado en este sentido, por lo que su algoritmo es tan efectivo para mantener a los usuarios desplazándose porque puede seleccionar los elementos clave del contenido con los que es más probable que interactúes en función de tu comportamiento anterior. . Cuantas más entidades pueda registrar TikTok, más señales tendrá para unirte con los clips, y parece que el sistema de TikTok se está volviendo muy bueno para descubrir más elementos en los videos subidos. Como se mencionó, las actualizaciones se producen cuando TikTok en Europa enfrenta un escrutinio constante por su incapacidad para limitar la distribución de contenido entre los usuarios jóvenes. El mes pasado, TikTok se comprometió a actualizar su política de contenido de marca luego de que una investigación de la UE descubriera que «no cumplía con su deber» de proteger a los niños de anuncios ocultos y contenido inapropiado. En otro frente, los informes también sugieren que muchos niños resultaron gravemente heridos, algunos incluso murieron, mientras participaban en peligrosos desafíos provocados por la aplicación. TikTok también introdujo medidas para combatir esto, y será interesante ver si estas nuevas herramientas ayudan a asegurar a los reguladores que están haciendo todo lo posible para proteger a su audiencia joven en más de un sentido. Aunque sospecho que no será así. Los videos cortos requieren trucos y acrobacias que llamen la atención, lo que significa que el material impactante, sorprendente y controvertido generalmente funciona mejor en este entorno. Como tal, el proceso de TikTok lo incentiva al menos parcialmente, lo que significa que cada vez más desarrolladores publicarán contenido potencialmente riesgoso con la esperanza de volverse viral en la aplicación.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.