_
_
_
_

La lucha laboral de quienes limpian desde Kenia la toxicidad de Facebook, TikTok y ChatGPT por tres euros la hora

Los moderadores de contenidos constituyen un sindicato para defenderse de las grandes tecnológicas, que les subcontratan para eliminar la violencia extrema de sus plataformas globales

Protesta ante las oficinas de Sama en Nairobi de los trabajadores impagados.
Protesta ante las oficinas de Sama en Nairobi de los trabajadores impagados.@ContmoderatorAf
Carlos Bajo Erro

“Sin moderadores de contenidos no habría Facebook. Te aseguro que si los moderadores de contenidos no estuviesen ahí, no le dedicarías ni un minuto a esas plataformas, porque no te puedes imaginar la cantidad de contenidos tóxicos, sucios, insoportables... Que se llegan a publicar”. Desde Nairobi, la capital keniana, Nathan Nkunzimana describe así el lado oculto de las redes sociales, la cantidad de publicaciones que quedan en el filtro de la moderación de contenidos y que hacen que la cara visible de esas plataformas sea, al menos, humanamente tolerable.

Durante los últimos dos años, Nkunzimana ha sido uno de los peones anónimos que forman esa línea de defensa, moderando contenidos para gran parte del África subsahariana. Durante toda la jornada laboral y prácticamente sin interrupción, un grupo de personas como él tiene que visualizar y filtrar todo tipo de aberraciones, incluidas múltiples formas de extrema violencia en vídeo. Las condiciones en las que han estado realizando esta labor les han llevado a enfrentarse a todos los obstáculos para formar un sindicato, African Content Moderators, que es uno de los primeros creados en ese sector en todo el mundo y que se ha constituido con el apoyo de la organización sindical keniana COWU (Sindicato de Trabajadores de la Comunicación, por sus siglas en inglés). Salarios ridículos, despidos improcedentes, explotación y problemas psicológicos derivados de sus tareas justifican su lucha.

El pasado 1 de mayo, más de 150 moderadores de contenidos y etiquetadores de datos de Facebook, ChatGPT y TikTok se reunieron en un hotel de Nairobi para compartir sus experiencias y preocupaciones. Y para dar un paso definitivo: ponerse de acuerdo en la constitución de un sindicato. Benson Okwaro es un veterano sindicalista, secretario general de COWU, y recuerda que “a muchas compañías globales no les gusta que haya sindicatos en sus oficinas”, pero recuerda que las leyes locales sí reconocen el derecho a la libre organización de los trabajadores. Sin embargo, destaca las dificultades derivadas de que esas grandes empresas no tengan sedes formales en los países en los que emplean trabajadores y que intenten evitar la legislación nacional. “Por eso necesitamos estar unidos y buscar soluciones conjuntas ya”, asegura Okwaro.

En febrero de 2019, Meta anunciaba la apertura en Nairobi del “primer centro de revisión de contenidos de Facebook en África subsahariana” como parte de su “continua inversión” en esa parte del continente africano y su “compromiso con la seguridad” en la plataforma, según señalaba en su propio perfil de Facebook. En la misma publicación aseguraba que lo haría “en colaboración con Samasource”. En realidad, era la compañía estadounidense Sama la que contrataba formalmente a los moderadores. Okwaro explica que era una subcontrata y que Nkunzimana y el resto de moderadores alegan que su principal empleador era Meta, por lo que reclaman la responsabilidad de la compañía matriz de Facebook, Instagram y WhatsApp en sus condiciones laborales.

“Acoso sexual, abusos a menores, actividades sexuales... Eso pasa en las redes sociales y pasa en directo. Llegaba a casa y tenía la sensación de que no sentía nada”
Nathan Nkunzimana, moderador de contenidos

Daniel Motaung, un empleado sudafricano de Sama, ya había intentado organizar a sus compañeros durante el primer verano del proyecto, con un embrión de sindicato que se autodenominó The Alliance (la alianza, en inglés) y que no llegó a nacer: aquel intento de movilización fue sofocado. Los trabajadores descontentos fueron llamados al orden, Motaung fue suspendido de manera inmediata y, unas semanas después, fue despedido.

Este ex moderador de Facebook destapó la caja de los truenos cuando en febrero de 2022 contó su historia a la revista Time y desveló las condiciones de trabajo en las oficinas de Nairobi en las que se revisaban los contenidos de la red social para África Oriental: “El trabajo que hacemos es una especie de tortura mental”. Tras su revelación se abrieron diferentes procesos legales: primero Motaung demandó a Meta y a Sama por explotación laboral y represión sindical. Y eso desencadenó una cascada de procesos judiciales y escándalos mediáticos, que sacaron a la luz los bajos salarios de los etiquetadores de datos contratados por la misma empresa para corregir la toxicidad de ChatGPT.

Tras estos problemas, Sama renunció a su contrato con Meta (sustituida por Majorel) en enero de este año y anunció a los empleados su cese. Ese fue el desencadenante de una nueva movilización más discreta. Denunciaron ante los tribunales los despidos, mientras cocinaban constituirse como sindicato. Si las condiciones de trabajo eran duras, el camino de los últimos meses no lo ha sido menos, tal y como relata Nathan Nkunzimana.

En abril de 2021, Nkunzimana empezó a trabajar para Sama como moderador de contenidos. Durante su jornada laboral llegaba a visualizar entre 1.500 y 2.000 publicaciones sobre los que tenía que decidir si se borraban, si se elevaban a otra instancia para revisión o si se dejaban pasar. Este ciudadano de Burundi, que llegó a Kenia hace 12 años para completar sus estudios, explica lo que había entre esos contenidos: “Acoso sexual, abusos a menores, actividades sexuales... Eso pasa en las redes sociales y pasa en directo. Hay grupos terroristas que matan a personas a plena luz del día e intentan distribuirlo públicamente en esas plataformas”. Él mismo reconoce que esa exposición le ha causado problemas sociales, psicológicos y personales. “Había días que llegaba a casa y tenía la sensación de que no sentía nada”, comenta, teniendo que cargar con ese peso en solitario ante su mujer y sus tres hijos.

Y es que además de la crudeza de los contenidos, los moderadores han tenido que enfrentarse a unas condiciones laborales que agravan la situación. “No podías hablar con nadie sobre eso, porque había una cláusula de confidencialidad. Ni siquiera podías compartir con tu compañera aquello por lo que estás pasando, la naturaleza del trabajo que está destruyendo tu vida personal. Era frustrante”, se lamenta. A eso se suma la presión de la productividad: “Si en una semana no alcanzabas las métricas exigidas, a la siguiente recibías un correo que te advertía que no estabas cumpliendo los objetivos. Los programas controlaban cuánto tiempo le dedicabas a cada contenido. No podías alejar la vista de la pantalla en toda la jornada. Pasaban dos o tres segundos desde que hacías clic en una publicación hasta que la máquina te colocaba otra para revisar. No te daba un momento de tranquilidad, incluso un minuto para ir al lavabo suponía un problema con tu supervisor”.

Y como guinda, en el momento en el que Sama les anunció el cese de la actividad, los moderadores dejaron de percibir su salario a pesar de que denunciaron la irregularidad del procedimiento. “El 90% de los moderadores de contenidos somos extranjeros y lo que hemos vivido durante el proceso es muy duro, estar tres meses sin cobrar el salario, en un país que no es el tuyo: no puedes pagar el alquiler, no puedes comprar comida…”, explica Nkuzimana. Cori Crider, codirectora de Foxglove, una organización británica que les está acompañando en este proceso, añade que esta situación “les obliga a seguir aceptando trabajos inseguros para permanecer en el país, a pesar del grave riesgo para su salud mental”. Los moderadores han recurrido al micromecenazgo para garantizar su caja de resistencia.

Este moderador burundés asegura que “los contenidos de texto se derivaban a otras oficinas, pero el sistema enviaba las imágenes y los vídeos a nuestras oficinas en África”. Lo cierto es que, a consecuencia de otras denuncias en otros centros de moderación de contenidos, han conseguido apoyo psicológico para sus empleados, pero esas condiciones no se ha generalizado.

“La situación en este centro de moderación de contenidos es especialmente mala, con una carga de trabajo espantosa”
Cori Crider, codirectora de Foxglove

“La situación en este centro de moderación de contenidos es especialmente mala porque la remuneración suele ser extremadamente baja, en torno a 2 o 3 dólares por hora. En el centro de Nairobi solo trabajaban 260 moderadores, sobre los que recaía la revisión de contenidos para la región de África oriental y meridional, de unos 500 millones de habitantes. El resultado es una carga de trabajo espantosa”, explica Cori Crider. “Tenemos legitimidad para convencer a estas grandes compañías tecnológicas de que se tienen una responsabilidad de regularizar nuestras condiciones de trabajo. Un moderador de contenidos en África está cobrando 500 o 600 dólares brutos. Te da para pagar el alquiler y lo mínimo que necesitas para vivir, porque la vida aquí [en Nairobi] es muy cara. Lo mismo ocurre con el apoyo psicológico. Cuando lo hemos reclamado, nos hemos encontrado con mensajes con los que nos intentaban atemorizar: ‘Si continúas así, acabarás yéndote a casa”, advierte Nkuzimana. Los responsables de la compañía Sama han declinado responder a las preguntas formuladas para este reportaje.

Siasa Place es una organización juvenil keniana que también han dado cobertura a la movilización de los moderadores de contenidos y Nerima Wako-Ojiwa, su directora, añade: “Algunas grandes empresas tecnológicas se aprovechan en todas partes, pero especialmente en el Sur Global. Hay una serie de lagunas cuando se trata de políticas, como la protección de datos o las condiciones de trabajo de estos empleados”.

“Una lucha desigual” con los gigantes tecnológicos

Por su parte, Nkuzimana lo deja claro: “Nuestra petición es que nuestros derechos humanos, constitucionales y laborales sean respectados, solo pedimos eso”. Y exige que las plataformas se responsabilicen de las personas que moderan contenidos. “Somos más que moderadores, somos los soldados que se sacrifican para que las comunidades sean seguras. Pero las empresas que gestionan esas comunidades no cuidan a las personas que las protegen”, sentencia.

Mientras tanto, los tribunales han tomado decisiones esperanzadoras para los empleados en sus múltiples procesos. Meta intentó eludir una denuncia porque no tiene residencia en Kenia, pero el juzgado rechazó sus argumentos. De la misma manera, un juez obligó a Meta a suspender el contrato con Majorel, la empresa sustituta de Sama, hasta que decidiese la suerte de los empleados y la naturaleza de esa relación. El veterano sindicalista Benson Okwaro asegura que “las leyes kenianas son muy propicias para los trabajadores”. Y para Cori Crider, de Foxglove, “empresas como Facebook, Google y TikTok son algunas de las más poderosas del mundo, con recursos casi ilimitados. Hace falta una valentía increíble para hacerles frente solo con el poder colectivo”.

Nerima Wako-Ojiwa se acerca a esta situación en clave de modelo de futuro: “Se plantean muchas cuestiones sobre los sindicatos y los derechos laborales, especialmente en lo que respecta al trabajo virtual y la legislación laboral nacional. Son preguntas que los países tendrán que empezar a responder. A medida que las empresas tecnológicas sigan creciendo, la forma en que la gente trabaja e interactúa con ellas exigirá respuestas legales. Muchas grandes empresas eluden responsabilidades o evaden impuestos recurriendo a terceras empresas”. Esta activista insiste en las particularidades del continente: “Definitivamente la de los moderadores de contenidos es una lucha desigual, pero así es el futuro del trabajo y está aquí para quedarse. Tenemos que tener un trabajo decente para la gente. Son cosas que los ministerios y las empresas privadas tendrán que sentarse a la mesa a negociar”.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Carlos Bajo Erro
Licenciado en Periodismo (UN), máster en Culturas y Desarrollo en África (URV) y realizando un doctorando en Comunicación y Relaciones Internacionales (URLl). Se dedica al periodismo, a la investigación social, a la docencia y a la consultoría en comunicación para organizaciones sociales.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_