Super Mensajes

TikTok, como toda red social, debe contar con un riguroso sistema de moderación de contenido para evitar que fotos o videos que infringen sus normas de uso se publiquen en su plataforma. No obstante, un nuevo informe señala que la compañía habría brindado acceso amplio e inseguro a material ilegal de abuso sexual infantil durante la formación de sus moderadores.

El reporte proviene de Forbes y señala que empleados de un equipo de moderación de contenido externo llamado Teleperformance, el cual trabaja para TikTok y otras compañías, afirmaron que se les solicitó que revisen este tipo de material durante su entrenamiento para realizar sus labores con la plataforma de videos cortos.

Según lo que detalla el informe, los empleados habrían tenido acceso a una hoja de cálculo apodada DRR (Lectura Diaria Obligatoria por su traducción al español) sobre las normas de moderación de TikTok que supuestamente contenía “cientos de imágenes y videos” de niños desnudos o siendo abusados.

Los empleados consultados también mencionaron que cientos de personas que trabajan para TikTok y Teleperformance tenían acceso a este contenido tanto dentro como fuera de las oficinas, arriesgándose a que este material pudiese filtrarse fuera de la base de datos de ambas compañías.

Dudosa moderación de contenido en TikTok

Forbescontactó a Teleperformance para preguntarles sobre esta información y la empresa negó que mostrara contenido de explotación sexual infantil a sus empleados. Además, TikTok señaló que sus materiales de formación para moderadores de contenido tienen “estrictos controles de acceso y no incluyen ejemplos visuales de abuso sexual infantil”. No obstante, la plataforma no confirmó que todos sus proveedores terceros cumplieran dicha norma.

“El contenido de esta naturaleza es aborrecible y no tiene lugar dentro o fuera de nuestra plataforma, y nuestro objetivo es minimizar la exposición de los moderadores en línea con las mejores prácticas de la industria. Los materiales de formación de TikTok tienen estrictos controles de acceso y no incluyen ejemplos visuales de abuso sexual infantil, y nuestro equipo especializado en seguridad infantil investiga y hace informes al Centro Nacional para Niños Perdidos o Explotados (NCMEC)”, dijo Jamie Favazza, portavoz de TikTok, en un comunicado enviado a The Verge.

Los empleados cuentan una historia totalmente distinta mencionando que son expuestos a imagenes y videos de abuso sexualinfantil que llegan a publicarse en las redes sociales y este material debe ser tratado con sumo cuidado ya que es ilegal en Estados Unidos y varias partes del mundo. Idealmente, este material debería ser denunciado a la NCMEC y debería conservarse durante 90 días por las empresas dueñas de las plataformas minimizando el número de personas que llegan a verlo.

TikTok
La difusión de imágenes de abuso sexual infantil es un delito en Estados Unidos y varios otros países del mundo. | Fuente: Pixabay

Una historia legalmente peligrosa para TikTok

Las acusaciones de empleados recogidas por Forbesen su informe señalan que Teleperformance les mostraba fotos y videos gráficos como ejemplos de lo que deberían eliminar de TikTok totalmente a la ligera. De hecho, el reporte señala que una trabajadora contactó al FBI para preguntar si esto constituía una difusión criminal de abuso sexual infantil, pero no se precisó si la denuncia prosiguió.

El reporte menciona que la situación de los moderadores de contenido de TikTok se tornó sumamente complicada debido al drástico crecimiento de la plataforma, por lo que no fueron capaces de seguirle el ritmo a todo el contenido que se vertía en la red social cada día. Los empleados también destacaron que se les pidió que vigilarán este contenido que constituye un delito contra los niños por razones que, en sus palabras, “no tenían sentido”.

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico. Para escucharlo mejor, #QuedateEnCasa.