Dos trabajadores demandan a TikTok por haber tenido que moderar miles de videos horrendos que, según alegan, causaron auténticos traumas en su mente.
Esto ya nos advierte que el último eslabón de los filtros de TikTok para que salga o no un video, está compuesto por personas y no por máquinas. El problema es que esos empleados tienen están expuestos a imágenes que sobrepasan los límites de lo que un ser humano puede soportar.
Quienes pusieron la demanda fueron Ashley Vélez y Reece Young, quienes ya no trabajan en TikTok y aseguran que no recibieron la atención correcta a su salud mental, por lo que su ambiente de trabajo se hizo inseguro.
Aseguran que llegó el momento en el que tenían miedo de ir a trabajar, pues a diario estaban expuestos a pornografía infantil, violaciones, zoofilia, asesinatos, decapitaciones y suicidios.
En el caso de Reece Young, aseguró que vio al miembro de un cartel de drogas ejecutando a una adolescente. Además, dijo que lo más común es precisamente tener que ver todo tipo de actos en contra de menores de edad que la gente simplemente intenta subir a la plataforma.
Por su parte, Vélez entiende que alguien tiene que sufrir y ver esas cosas horribles para nadie más tenga que hacerlo. Sin embargo, demanda a TikTok porque se hizo cargo adecuadamente del asunto de su salud mental ante sus advertencias.
La demanda fue interpuesta en Estados Unidos, y afirma que TikTok y su matriz americana ByteDance no cumplieron con las leyes laborales de California. Eso, a causa de que no protegieron a sus trabajadores del trauma emocional que ejemplos como los anteriormente descritos pueden ocasionar.
Cuotas de de productividad imposibles

La demanda de Vélez y Young contra TikTok y ByteDance explica el funcionamiento de este trabajo dentro de la plataforma.
Los empleados deben revisar cada video durante no más de 25 segundos y emitir juicios con más de 80% de precisión sobre si pueden ser subidos a la red social o no.
Todo ese trabajo lo hacen en turnos de 12 horas con un descanso de una hora para almorzar, y otros dos descansos de 15 minutos.
La inteligencia artificial no basta
Aunque se sabe que la mayoría de los contenidos que se suben a TikTok son interpretados por la inteligencia artificial, esta noticia demuestra que hay un punto al que aún no llegan las máquinas, por lo que se necesitan seres humanos para dictar sentencia.
Pero tendrán que seguirse desarrollando estrategias para que los robots puedan analizar más este tipo de videos, sobre todo a causa de los enormes daños que pueden causar en la gente.
Un estudio publicado por la Universidad de Texas evidenció que la exposición repetida a contenido dañino empuja a las personas a sufrir de estrés postraumático y otros problemas mentales.
Más allá de TikTok

Ya hemos visto casos de moderadores de Facebook y Youtube que fueron ingresados a instituciones de salud, víctimas de enormes cuadros de depresión y ansiedad por estar expuestos tanto tiempo a ese tipo de contenidos.
¿Y es muy difícil realmente ese trabajo? Según dtos del Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos, solo en 2021 se eliminaron más de 29 millones de contenidos sobre abuso sexual infantil en la Internet. Esa cifra aumentó en un 35% la cantidad de material eliminado en 2020.
Precísamente en 2020, miles de moderadores demandaron a Facebook y el mismo bufete de abogados que ahora enfrenta a TikTok fue el que representó a aquellas personas.
La demanda fue ganada por los moderadores a razón de unos 52 millones de dólares. Sin embargo, al ser tantas personas involucradas, cada demandante recibió poco más de 1000 dólares.