Gabriele Bavastro, exempleado de TikTok: “Casi el 50% de los contenidos moderados en las redes sociales son pornográficos”

El analista de datos, que trabajó como moderador de la red social china durante casi dos meses, alerta de que un 1,3% de las cuentas eliminadas de TikTok son de menores de 13 años, que según las normas de la tecnológica no pueden registrarse

Gabriele Bavastro, ex ingeniero de TikTok, fotografiado en el barrio de Gràcia, en Barcelona, el viernes 29 de noviembre de 2024.Gianluca Battista

Casi 3.000 vídeos, a un promedio de entre siete y nueve segundos cada uno. Un clip, otro, durante siete horas y 20 minutos. Así pasó los fines de semana casi dos meses Gabriele Bavastro, moderando contenidos publicados en TikTok en Barcelona. Sigue viviendo allí, pero este analista de datos de 40 años, nacido en Novi Liguri (Italia), ya no trabaja para la empresa china. Esas ocho semanas fueron en 2018, y en la última evaluación que le hizo...

Suscríbete para seguir leyendo

Lee sin límites

Casi 3.000 vídeos, a un promedio de entre siete y nueve segundos cada uno. Un clip, otro, durante siete horas y 20 minutos. Así pasó los fines de semana casi dos meses Gabriele Bavastro, moderando contenidos publicados en TikTok en Barcelona. Sigue viviendo allí, pero este analista de datos de 40 años, nacido en Novi Liguri (Italia), ya no trabaja para la empresa china. Esas ocho semanas fueron en 2018, y en la última evaluación que le hizo su manager antes del despido constaba como excelente su nivel de productividad; a nivel de calidad, sin embargo, le avisaban de que el número de errores era “un poco alto”. Especializado en marketing y estadística, antes de TikTok trabajó en webs de viajes y en gestión de redes sociales, ahora es analista en otra gran tecnológica y es el responsable de Colonización de las redes sociales. El caso de TikTok, uno de los capítulos del libro La industria pornográfica en internet. Causas y consecuencias (Octaedro), publicado el pasado octubre.

Tal y como cuenta Bavastro en su capítulo, incluido en ese trabajo sobre las implicaciones del porno en la red —coordinado por el investigador de la Universidad de las Islas Baleares Lluís Ballester—, en TikTok se moderan en torno a 90 millones de contenidos al trimestre “por no cumplir con las directrices sobre desnudos y contenido sexual con adultos” y, desde finales de 2022, se ha producido un incremento del 25% en el número de vídeos suprimidos en una red social donde los adolescentes son el público objetivo y que ya suma más de 1.600 millones de usuarios activos al mes.

Pregunta. ¿Por qué le atrajo el trabajo en TikTok?

Respuesta. Era un trabajo de nivel bajo, hay mucha rotación y era solo para los fines de semana, pero suponía una oportunidad para conocer en profundidad cómo funciona una empresa como esa desde un departamento clave, donde se establecen los filtros de lo que se queda y se elimina.

P. ¿Por qué le echaron?

R. Es un misterio para mí, no fui el único. Creo que fue por seguridad. No podías tener nunca el móvil en la mesa, las salidas de USB del ordenador estaban deshabilitadas, no se podía sacar ningún documento interno bajo ningún concepto. Me di cuenta de que hubo personas que consiguieron sacar algo, y por prevención echaron a bastante gente. No me dieron motivos. Pronto ví que ese trabajo no era para mí, tuve suficiente con ocho semanas. Me estaba afectando bastante a la salud mental, porque son muchísimos vídeos, muy repetitivos... Pasa pocas veces que te encuentres un contenido que te impacta mucho, pero, al menos, un par de veces al día pasa.

P. ¿Cómo era el trabajo de moderador, les asignaban contenidos de una zona concreta del mundo?

R. Hay colas de contenido dividido en audio, vídeo y fotos, clasificado por idiomas y mercado. Hablo cinco idiomas. Éramos unos 200 haciendo el mismo trabajo: clasificar los contenidos en un espacio de tiempo de entre siete y nueve segundos. Si algo te generaba dudas, consultabas a compañeros. Había que decidir el nivel de violencia. Por ejemplo, en un contenido pornográfico de adultos, si no era muy explícito, le ponías la etiqueta VTS (en inglés, visible to self), de forma que solo lo podía ver la persona que lo había subido. Se consideraba una violación de las normas leve y el objetivo era evitar que se hiciese viral o que tuviese mucha difusión. Con contenidos más graves, en los que se involucraba a niños, se reseteaba el perfil borrando todas las publicaciones de esa cuenta. Esos casos había que escalarlos a un manager, e incluso ponerlo en conocimiento de la Guardia Civil si era en territorio nacional. Si una cuenta era reseteada más de cinco de veces, se eliminaba.

P. ¿Qué tipo de vídeos veía?

R. La mayor parte aburridos. Por ejemplo, de adolescentes sin ningún interés. En el 90% de los casos no había que prestarles mucha atención. En cambio, cuando algún menor subía soft porn (porno suave) teníamos el mandato de borrarlo lo más rápido posible. No son conscientes de cuántas personas pueden llegar a verlo y qué uso pueden hacer de ese contenido: hacerles chantaje o detectarles como objetivos vulnerables para ganarse su confianza [el llamado grooming, uno de los delitos online contra menores que más ha crecido en los últimos años]. Solo el 1% de los contenidos te dejaban tocado. Recuerdo un vídeo de una mujer, imagino que era en África central porque hablaban portugués, a la que estaban apuñalando y al final le cortaban la cabeza con un cuchillo. Ves muchos detalles y sabes que es real, imágenes que nunca te borras de la cabeza. O uno en el que se veía un gallinero de fondo, y luego la cámara se acercaba a un niño de siete u ocho años que violaba a una gallina. Si eres un poco sensible, te afecta, al cerebro le cuesta desconectar cuando llegas a casa. Nos decían continuamente que era un trabajo duro, pero que alguien tenía que hacerlo.

P. La edad establecida por TikTok para abrirse una cuenta son los 13 años. Después de lo que ha visto, ¿cree que es una edad demasiado baja?

R. Muchos no tienen ni 13. Era muy difícil determinarlo: para cancelar una cuenta, la empresa nos pedía una prueba, por ejemplo una declaración de voz o escrita del menor hablando sobre su edad. No existe ningún mecanismo para verificarla. Una de nuestras obligaciones era identificar marcando una casilla todos los vídeos en los que aparecía un menor de 13 años, y señalar si ese contenido necesitaba ser revisado. Por ejemplo, un padre que sube un vídeo con su hijo sin ningún elemento preocupante no era un problema. De las cuentas eliminadas por TikTok en 2023, el 1,3% eran de menores de 13 años. Ninguna otra plataforma ofrece ese dato. El 49,3% de contenidos moderados en las redes sociales que he analizado —YouTube, Facebook, Instagram, Snapchat y TikTok— son pornográficos.

Bavastro, en Barcelona.Gianluca Battista

P. En el capítulo del libro aporta datos sobre las políticas de transparencia para la protección de los menores de las diferentes redes sociales. ¿Cuál cree que puede ser más peligrosa?

R. Con los datos disponibles, es imposible saberlo. La única herramienta para comparar su actuación es con sus informes de transparencia y son muy difíciles de interpretar, salvo que conozcas la terminología de sus manuales de moderación. No hay normativa de los reguladores públicos sobre cómo deben realizarse esos informes. Por ejemplo, Snapchat te da un dato muy valioso: la cantidad de contenidos moderados por cada 10.000 vídeos [es la única red social en España que da tanto el recuento total de contenidos moderados como la distribución en las diversas categorías, por ejemplo, la categoría “contenido sexual” supone la mayor parte de las publicaciones eliminadas, un 68,87% del total].

P. En Snapchat lo que se elimina relacionado con la explotación y el abuso sexual infantil es un 2,09 %, según cifra el libro. ¿El resto no da ese dato?

R. No, ni desglosan los contenidos pornográficos en los que aparecen adultos y menores. TikTok establece en sus manuales tres niveles de pornografía: slight (son publicaciones muy soft, en las que pueden aparecer, por ejemplo, bailes eróticos, personas con shorts o una menor que enseña la barriga), moderado (cuando, por ejemplo, más de un tercio de la pantalla está ocupado por unos pechos tapados o por alguna zona del cuerpo erótica), y grave (sexo explícito o violencia sexual). Si todas las plataformas ofreciesen esos datos, se podría hacer una comparativa de peligrosidad para un menor.

P. ¿Cuáles son los vídeos más eliminados por TikTok?

R. La categoría “protección de menores representa el mayor porcentaje de vídeos eliminados, un 30,6%. Incluye las subcategorías de desnudez y actividad sexual que involucra a menores (16,89%), actividades perjudiciales realizadas por ellos (10,55 %), daños físicos y psicológicos (1,56%), y seducción (grooming) (0,85%) y explotación sexual (0,7%) de menores. Otras son “imágenes de desnudos y actos sexuales entre adultos”, que representan el 14,7% de los retirados, o “suicidio, autolesiones y actos peligrosos”, el 3,1%. Cualquier vídeo con contenido sexual, se borra. La mayoría de los que moderé eran amateur.

P. ¿Y cuánto tardan en eliminarlos?

R. El 71,1% de los vídeos eliminados en TikTok desaparecen antes de cualquier visualización. Del 30% restante, el 89% se retiran dentro de las primeras 24 horas desde la publicación.

P. ¿Cuál es el principal peligro cuando un menor sube un contenido íntimo?

R. Ahora, los chatbots —sistemas creados con inteligencia artificial— actúan como personas reales, intentan ganarse la confianza de los menores de forma masiva, ya no son 50 pedófilos desde su casa, aunque también los hay. Son grupos organizados que detectan y atacan sus cuentas con fines de extorsión, incluso reciben comisiones por cada menor captado. A través de un contenido aparentemente inofensivo, como una menor a la que se le ve un poco la tripa, detectan las cuentas e inician la conexión. Identifican perfiles a través de hashtags de salud mental o autolesiones, e incluso usan filtros para detectar condiciones de mala salubridad de la casa donde se hace el vídeo. Buscan personas desprotegidas. Los menores suelen grabar los vídeos en el baño de su casa o en su habitación, espacios que consideran seguros. Si publican semidesnudos, los extorsionadores pueden chantajearles en el futuro para conseguir contenidos más subidos de tono.

P. ¿Cuál cree que es el camino para regular de la forma más efectiva?

R. Sin duda, los gobiernos. Actualmente, muchas de las normativas, como las europeas, son voluntarias para las tecnológicas, y todavía no existe un sistema de verificación de la edad eficaz. Los países se tienen que poner de acuerdo y dar más valor a la protección de los menores aunque, en parte, se pueda vulnerar de alguna forma el derecho a la privacidad de los usuarios. Hay que ser valiente con este tema.


Más información

Archivado En