_
_
_
_
_
En la nube
Columna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Esta inteligencia artificial me tiene manía

Los algoritmos reproducen los prejuicios de sus creadores y de la sociedad

Ricardo de Querol
Ilustración de Glez

Ha llegado el momento en que la inteligencia artificial toma decisiones que afectan a nuestras vidas: si se nos elige para un empleo, si se nos concede una hipoteca, si nos aceptan en una universidad, si podemos cruzar una frontera, si la policía debe vigilarnos antes de que cometamos un delito, el precio de una póliza sanitaria. El algoritmo se convierte en un juez que no da posibilidad de apelación. ¿Por qué no me suben el límite de la tarjeta de crédito? Porque el ordenador me lo impide, dirá el empleado bancario, todavía de carne y hueso. ¿Y puedo saber por qué el ordenador lo impide? No intente averiguar cómo funciona, será la respuesta.

Un gran debate en torno a la inteligencia artificial es si está libre de prejuicios –sería lo esperable, pues un programa debe responder a datos objetivos–; o si, por el contrario, las máquinas reproducen nuestras manías, porque aprenden de nosotros, que las tenemos. La conclusión de quienes lo han estudiado es que, incluso cuando aprenden solas, la IA asume el sesgo de la sociedad que analizan. Sesgos históricos de sexo, de clase, étnicos, xenófobos.

No es una especulación: está estudiado. Como en el informe Gender Shades, que en 2018 detectó que los programas de reconocimiento facial fallaban más con mujeres y minorías étnicas. El programa Watson, de IBM, se equivocaba hasta un 35% de las veces en mujeres negras, pero solo un 1% con hombres blancos. La compañía creó un equipo para corregir a Watson; redujo los errores, pero no ha conseguido erradicarlos.

Un asunto más delicado: la inteligencia artificial aplicada a la defensa o al orden público. En las guerras ya se utilizan drones que no solo se dirigen a un objetivo, sino que lo eligen. La policía ya empieza a trazar perfiles de sospechosos mediante IA: trata de anticiparse a delitos que nadie ha cometido todavía.

Podemos perfeccionar los programas, liberarlos de nuestros arraigados recelos hacia lo diferente, pero hay un problema de base: qué datos sirven para que la máquina aprenda a tomar decisiones. Si son los datos históricos de criminalidad en EE UU, por ejemplo, arrastramos siglos de sesgo racista allí, y no solo allí. Si son los datos de solvencia económica en cualquier lugar, se verá el efecto de siglos de patriarcado.

Catherine D’Ignazio, profesora de Ciencia en el MIT y autora del libro Data Feminism, lo tiene claro. “Los datos no serán neutrales jamás porque nunca son datos ‘crudos’. Están producidos por seres humanos que vienen de lugares determinados, tienen sus propias identidades, sus historias particulares y que trabajan en instituciones concretas”.

La cuestión de fondo es si la inteligencia artificial tiene que responder a cómo somos o, mejor, a cómo queremos ser.

Más información
Si la Red se apaga, hablen entre ustedes
Contra la cultura del zasca
Resiste al algoritmo, sal de la burbuja
Sí, acepto (lo que sea)

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Ricardo de Querol
Es subdirector de EL PAÍS. Ha sido director de 'Cinco Días' y de 'Tribuna de Salamanca'. Licenciado en Ciencias de la Información, ejerce el periodismo desde 1988. Trabajó en 'Ya' y 'Diario 16'. En EL PAÍS ha sido redactor jefe de Sociedad, 'Babelia' y la mesa digital, además de columnista. Autor de ‘La gran fragmentación’ (Arpa).

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_