_
_
_
_
Inteligencia artificial
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

La mano de obra oculta tras ChatGPT: el drama de los ‘trabajadores fantasma’

La autora defiende la necesidad de nuevos estándares laborales en la cadena de suministro de la inteligencia artificial

OpenAI
Sam Altman, CEO de OpenIA, empresa responsable de ChatGPT, en una declaración ante el Senado de EE UU, en septiembre.JULIA NIKHINSON (REUTERS)
Lucía Velasco

Puede parecer magia, pero no lo es. La evolución de la inteligencia artificial (IA), constantemente celebrada por su innovación exponencial y sus capacidades revolucionarias, oculta un componente menos glamuroso pero crítico: su mano de obra remota. Esta parte de su cadena de valor, crucial, pero frecuentemente pasada por alto, me recuerda a la cadena de suministro de la industria textil de hace unas décadas. ¿Alguien se ha podido olvidar de la tragedia del Rana Plaza, en Bangladesh, donde murieron más de 100 personas? Esta es una historia paralela. Mientras que, en la producción de la ropa barata, el riesgo que padecen los trabajadores encerrados en fábricas de países periféricos es físico; en esta otra industria, la digital, prevalece el riesgo psicosocial. Es decir, el daño psicológico que sufren sus trabajadores debido a la constante exposición a contenidos brutales, perturbadores, traumáticos e indescriptibles. Su invisibilidad y su no-relación laboral les deja solos con las secuelas; a las que se suman los clásicos de la deslocalización a países sin estado de derecho: salarios precarios, trabajo no remunerado, explotación, abuso, etc. Todos los vídeos que contienen asesinatos, suicidios, ataques sexuales o abuso infantil que no llegan a verse en las plataformas han sido revisados y etiquetados por un moderador de contenido o por un sistema automatizado que ha sido entrenado con datos que han sido proporcionados por un moderador de contenido. Algunos ya están constituyendo los primeros sindicatos para defender sus derechos, pero no será suficiente. Es un nuevo desafío global y requiere de normas que estandaricen las condiciones laborales en esta industria de rápido crecimiento.

La antropóloga Mary Gray los llamó “trabajadores fantasma”. Personas que no vemos, trabajando en lugares remotos, entrenando los grandes modelos que hacen que el chat más famoso del mundo produzca contenido de calidad. No son solo personas adultas. Hay niños también. Cómo aquellos que cosían los balones de fútbol. Sus condiciones laborales son muy diferentes de las que disfrutan los empleados de Silicon Valley, donde se puede ser millonario antes de llegar a los 30. En esta otra realidad, la de la cadena de suministro de la inteligencia artificial, los chicos como Hassan, ganan menos de dos dólares por hora. Ahora tiene 18, pero empezó en Toloka, una plataforma dedicada a la anotación de datos, con 15 años. Es de una región de Pakistán. Sus amigos también trabajan en estas plataformas después de clase hasta bien entrada la noche, según reporta Wired. Consiguen eludir los procesos de verificación de la edad, y terminan realizando tareas que son psicológicamente agotadoras e inapropiadas. El problema del trabajo infantil en esta reconocida industria es algo de lo que no se habla.

Se espera que el tamaño del mercado mundial de la recopilación y el etiquetado de datos alcance los 17.100 millones de dólares en 2030, con una tasa de crecimiento interanual de casi el 30%. Es un espacio que cuenta cada vez con más competidores. Amazon Mechanical Turk, Appen, Clickworker, Comeup, Elharefa, Microworkers, PeoplePerHour, Prolific, SoyFreelancer, Scale AI (incluida su filial Remotasks), Terawork, o Workana son solo algunas de las compañías que el equipo de Oxford Internet Institute ha analizado para concluir que muchas de sus prácticas laborales son cuanto menos injustas. ¿Qué se puede hacer al respecto? El Global Partnership of AI (GPAI) a través de su proyecto AI Fairwork, y la compañía Sama han trabajado juntos a lo largo de un año auditando y mejorando, de forma voluntaria, sus operaciones en África y beneficiando a más de 4.000 trabajadores. Estos cambios demuestran el poder de la concienciación y el compromiso con las prácticas responsables. Para Mark Graham, profesor del Oxford Internet Institute, a medida que la tecnología transforma las sociedades y los mercados laborales, debemos recordar que hay cientos de miles de trabajadores con salarios bajos entre bastidores que están formando, anotando y moderando los conjuntos de datos sobre los que se construyen los nuevos productos y servicios. Por ello, es imperativo establecer unas normas mínimas de trabajo justo para todos los trabajadores de las redes de producción de inteligencia artificial.

Al igual que sucediera en el sector textil, donde la demanda de los consumidores impulsó el desarrollo de normativas y certificaciones éticas para mejorar las prácticas laborales y la transparencia, la industria de la inteligencia artificial está llamada a tomar medidas similares. Es necesario establecer un marco regulatorio global que asegure prácticas laborales equitativas y prevenga la explotación de trabajadores vulnerables. La desigualdad global es patente tanto en la inteligencia artificial como en la confección, con trabajadores de países en desarrollo que reciben una remuneración mínima en comparación con sus contrapartes de países ricos. Esta brecha económica perpetúa una forma de explotación que beneficia desproporcionadamente a las empresas y consumidores de las naciones del norte global.

Ante esta encrucijada, resulta crucial optar por un camino que evite la explotación y se oriente hacia un futuro más sostenible y justo. Este cambio demanda un compromiso con la transparencia y la adopción de prácticas laborales dignas, así como el desarrollo de estándares comunes. El sector de la inteligencia artificial, en pleno auge, debe asimilar las lecciones aprendidas de los errores cometidos por industrias previas, como la textil, y establecer un rumbo que priorice no solo la innovación, sino también la dignidad y el bienestar de su fuerza laboral.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Lucía Velasco
Economista especializada en la intersección de la tecnología y la sociedad. Trabaja actualmente en una organización internacional en el ámbito de la gobernanza tecnológica. Su primer libro se titula '¿Te va a sustituir un algoritmo?' (Turner)

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_