_
_
_
_
_
Columna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Abran las cajas negras

Creer que por sí mismas las máquinas van a tomar decisiones justas es el equivalente hoy al clásico error liberal de pensar que los mercados se regulan solos

Ana Fuentes
Un hombre observa una demostración de software de análisis de movimiento humano en Pekín, China.
Un hombre observa una demostración de software de análisis de movimiento humano en Pekín, China.Reuters

En el Senado francés se está debatiendo estos días si se debe exigir por ley que la Administración explique los algoritmos que utiliza en sus aplicaciones. Miles de estudiantes se quejan de que la plataforma que gestiona su admisión en la enseñanza superior, Parcoursup, ha sido programada con criterios sesgados. Supuestamente, favorece a los estudiantes con más información y, en definitiva, con más recursos. Y, aunque hace dos años que la Ley Digital exige la transparencia algorítmica en Francia, esta no se da ni por parte del Gobierno ni de las empresas.

Más información
Robot-lución: el gran reto de gobernar y convivir con las máquinas
Tribunas | Cómo la tecnología cambia nuestros trabajos
¿Seremos mascotas de la IA?

Omnipresentes e invisibles, los algoritmos determinan cada vez más nuestro día: qué películas nos propone Netflix o cuánto nos cuesta una reserva de hotel. Gracias a ellos se pueden gestionar cantidades enormes de información de manera más eficiente. Pero también pueden terminar discriminando por cómo han sido programados. Un ejemplo que da Marta Peirano en El enemigo conoce el sistema es el de David Dao, un pasajero al que sacaron a rastras de un avión en abril de 2017. Había pasado todos los controles de seguridad en el aeropuerto de Chicago y estaba esperando el despegue cuando las azafatas llegaron a echarle. Se negó y los agentes de seguridad terminaron sacándolo por la fuerza. United Airlines había vendido demasiados billetes y sobraba alguien. Un algoritmo había determinado que fuera Dao y no otro el expulsado. Él no era tan valioso para la aerolínea como un titular de la tarjeta de viajero frecuente. ¿Usaron también datos socioeconómicos, religiosos o raciales? Se desconoce, porque el algoritmo es secreto.

Cuando un tema da mucho que hablar, lee todo lo que haya que decir.
Suscríbete aquí

Los sistemas de decisión algorítmica que tengan un impacto en los derechos de las personas deberían ser transparentes.

Problema: la transparencia siempre suena bien como valor exigible, pero habrá situaciones en las que no se pueda explicar un algoritmo. Para empezar, no es sencillo obligar a las empresas a poner su código a disposición del público; sería violar su propiedad intelectual y aniquilar la innovación. Pero, además, algunos son árboles de decisión sencillos, basados en reglas ordenadas. Otros son redes neuronales que no controlan ni quienes los han programado. Sus autores solo pueden probarlos una y otra vez hasta que entienden que las máquinas están haciendo lo que deben hacer.

Una de las posibles soluciones es pedir que se rindan cuentas, no ante los ciudadanos, sino ante una autoridad independiente, quizá supranacional, sin ánimo de lucro y formada por expertos. Están naciendo iniciativas como OdiseIA en España para analizar el impacto de la inteligencia artificial y asesorar al sector público y privado. Pretenden crear un sello de calidad para quienes cumplan ciertos estándares de transparencia. Es el momento de poner la ética en la agenda. Creer que por sí mismas las máquinas van a tomar decisiones justas es el equivalente hoy al clásico error liberal de pensar que los mercados se regulan solos.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Ana Fuentes
Periodista. Presenta el podcast 'Hoy en EL PAÍS' y colabora con A vivir que son dos días. Fue corresponsal en París, Pekín y Nueva York. Su libro Hablan los chinos (Penguin, 2012) ganó el Latino Book Awards de no ficción. Se licenció en Periodismo en la Universidad Complutense de Madrid y la Sorbona de París, y es máster de Periodismo El País/UAM.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_