_
_
_
_
_

Cómo impedir que la inteligencia artificial discrimine, genere más carga de trabajo y más control sobre el empleado

UGT publica una guía de ‘Recomendaciones para la negociación colectiva de la IA”, que incluyen cómo regular su uso en los convenios colectivos, con ejemplos de buenas prácticas

Una captura de la aplicación de inteligencia artificial Chat GPT
Una captura de la aplicación de inteligencia artificial Chat GPTFlorence LO (REUTERS)
Raquel Pascual Cortés

La inteligencia artificial (IA), hoy en día, puede seleccionar a un trabajador y contratarlo; organizar su flujo de trabajo; decidir si promociona o no en su carrera; calcular su desempeño y retribución; facilitar la vigilancia y el control en el puesto de trabajo. Es más, es capaz de aplicar el régimen disciplinario de la empresa o incluso resolver la extinción del contrato laboral. Para ello, las empresas utilizan herramientas algorítmicas o de IA como ChatGPT, Copilot, Bard, Bedrock, LLaMA 2, Dall E, Midjourney o Stable Diffusion, entre otras muchas, que, si no se han instaurado ya en la esfera laboral y personal de la mayoría de los ciudadanos, lo harán pronto, según alerta el sindicato UGT, que ha elaborado un exhaustivo documento de trabajo que recoge una guía de Recomendaciones para la negociación colectiva de la IA.

El servicio de estudios del sindicato maneja numerosos datos actualizados de importantes organismos nacionales e internacionales que reflejan que “la IA está mucho más presente en las relaciones laborales de lo que se puede pensar”. Por ejemplo, el INE, en su encuesta Las TIC en las empresas de principios de año asegura que el 37% de las compañías con IA en sus procesos productivos la emplea para “la automatización de flujos de trabajo o ayuda en la toma de decisiones”; y esta cifra aumenta hasta el 56% en las grandes corporaciones, siendo además el modo de IA más usado de todos los existentes.

En esta misma línea, Eurofound —el órgano consultivo europeo en materia sociolaboral— asegura que “uno de cada tres trabajadores en España están sujetos a al menos una forma de gestión algorítmica”. En concreto, al 19% de los asalariados, un algoritmo les asigna los turnos; a un 16%, les atribuye las tareas; a un 11% les mide el desempeño, creando rankings en la empresa; y a un 10%, estos algoritmos les pueden cancelar la carga de trabajo o, directamente, “cancelar su trabajo”, en función de los rankings anteriores.

Dada esta expansión en el ámbito laboral, este estudio, dirigido por José Varela, responsable de Digitalización de UGT, advierte de las graves consecuencias de una IA sin vigilancia sindical. Cita recientes estudios de la OCDE que avisan de que este uso inadecuado de la IA “comienza a tener muchas consecuencias negativas para las personas trabajadoras”. Por ejemplo, en el ritmo de trabajo: “las personas que tienen organizado su trabajo por un algoritmo aumentan su carga de tareas de manera sustancial, demostrándose además que la gestión algorítmica de los flujos de trabajo aumenta exponencialmente el control sobre las personas”, indican las advertencias de este organismo internacional recogidas en este estudio. Según esto, entre las personas gestionadas por IA en sus puestos, el 71% de los trabajadores de servicios financieros y el 61% de los ocupados en la industria manufacturera; el 85,5% aseguran que estas herramientas “han aumentado sus ritmos de trabajo”. E, igualmente, el 85,5% de los empleados en finanzas y seguros y el 76% de los industriales coinciden en que la IA también ha aumentado el control de sus tareas.

Pese a todo, empresas punteras en el desarrollo de la IA, como IBM, confirma en su Global AI Adoption Index 2022 que el 74% de las empresas que usan estas nuevas tecnologías no reducen sus sesgos no deseados; otro 60% no desarrollan políticas éticas para su uso y más de la mitad ni siquiera salvaguardan la privacidad de los datos. Y la consultora McKinsey acaba de publicar un estudio donde se afirma que “solo el 21% de los encuestados que informan sobre la adopción de IA dicen que sus empresas han establecido políticas que rigen el uso de esta tecnología por parte de los empleados”.

Ante todas estas evidencias, UGT hace un llamamiento a los negociadores de los convenios colectivos para que, a través de estas normas, incluyan regulaciones para la utilización de algoritmos e IA en el quehacer diario de las compañías. El sindicato empezó ayer a formar en esta materia a sus delegados de toda España. Para ello empleará esta guía que será también distribuida a partir de hoy entre todos sus dirigentes. En ella, explican cómo desarrollar el capítulo del Acuerdo para el Empleo y la Negociación Colectiva (AENC) 2023-2025 firmado en mayo entre las cúpulas de las patronales CEOE-Cepyme y los sindicatos CC OO y UGT a modo de recomendaciones para negociar los convenios laborales.

En dicho capítulo del AENC tanto empresarios como sindicatos reconocen que la IA tendrá “un impacto significativo” en el mercado de trabajo español y, en consecuencia, admiten que “su principio rector sea el control humano”. Además, las empresas se comprometen a facilitar a los representantes de los trabajadores información transparente y entendible sobre el funcionamiento de los algoritmos y la IA, para garantizar que no existen prejuicios ni discriminaciones. Dicha información deberá contener los parámetros, reglas e instrucciones en los que se basan estas herramientas. Y, en cualquier caso, debe ser la negociación colectiva la que garantice su uso adecuado.

Consejos prácticos para la negociación

Entre los consejos prácticos de esta guía para los negociadores de los convenios, los planes de igualdad o los ERE/ERTE, UGT explica, por ejemplo, cómo solicitar a la empresa la información sobre los algoritmos o IA que utiliza. Enumera un decálogo de preguntas desde las básicas sobre si existen estos instrumentos; si toman decisiones y de qué tipo o en qué áreas; qué tecnología concreta se ha contratado y en qué variables, parámetros, reglas e instrucciones se basan. Asimismo, los negociadores deben preguntar si la compañía ha evaluado el impacto de estas herramientas antes de utilizarlas de forma genérica. Y exigir que “en lugar de ofrecer complejas explicaciones matemáticas sobre como funcionan los algoritmos (...) el responsable empresarial use formas claras y exhaustivas para ofrecer la información”.

Una vez conseguida esta información para poder regular el uso de algoritmos e IA en las actividades empresariales, el sindicato aconseja introducir en la negociación colectiva con la compañía (o el sector) el concepto de dividendo digital de la IA o el de plusvalía de IA. Según UGT, “la productividad que generan estas nuevas tecnologías no pueden acabar únicamente en manos de unos pocos —algunos actores como Microsoft ya han calculado que la IA elevará los ingresos de las empresas hasta un 15%—”. Por ello, y dado que para poder utilizar y sacar rentabilidad a estos algoritmos las compañías necesitan obligatoriamente numerosos datos de los trabajadores, estos no se deben de ceder de forma totalmente gratuita y, en este sentido, el sindicato asegura que los representantes de los trabajadores deben de reclamar “una parte del dividendo productivo por la utilización de dichos datos”. Esta retribución deberá ser adicional al concepto de salario por trabajo y no puede considerase retribuido en el sueldo habitual.

Varela, director de este estudio, explica que de todas estas cuestiones “lo que más cuesta al principio es que la empresa comprenda que tiene unos nuevos derechos de información y consulta referidos a la IA. Muchas empresas interpretan la implantación de la tecnología como una facultad que reside en el poder de dirección, y no es cierto: cualquier herramienta de trabajo que pueda atentar contra un derecho fundamental está sometida a vigilancia sindical”. Si bien, añade que “una vez superada esa primera barrera, el principio de un humano al final de la cadena, que pueda revocar la decisión de un algoritmo, y que además sea el contacto para explicar a un empleo tal decisión, también choca. La razón es simple: muchas empresas implementan IA para ahorrarse empleos”.

La guía recoge también una serie de buenas prácticas en convenios colectivos donde ya se han incluido regulaciones del uso de algoritmos e IA. Estos acuerdos recogen cuestiones que afectan a la información y formación sobre estos instrumentos (convenio colectivo de El Norte de Castilla; de Air Nostrum Training Operations; convenio nacional de perfumería y afines; sector del comercio de alimentación de A Coruña); dan garantías de no discriminación o de avisar si se usa análisis de datos sin supervisión humana (convenio del sector de banca o convenios para los establecimientos financieros de crédito). Pero entre todos los convenios que ya han empezado a regular estas tecnologías destaca el de la empresa Just Eat, que recoge una detallada normativa sobre las garantías de su utilización, creando incluso una “comisión algoritmo” de carácter paritario que canalizará toda la información exigible.







Sigue toda la información de Economía y Negocios en Facebook y X, o en nuestra newsletter semanal

Suscríbete para seguir leyendo

Lee sin límites
_

Sobre la firma

Raquel Pascual Cortés
Es periodista de la sección de Economía, especializada en información sobre empleo, Seguridad Social, pensiones y relaciones laborales. Licenciada en C.C. de la Información por la U. Complutense, empezó a trabajar en Cinco Días en 2000 y antes pasó por las secciones de política y economía de la agencia Europa Press y por el diario Soria 7 Días.
Tu comentario se publicará con nombre y apellido
Normas

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_