Una decisión que ignora los principios éticos en inteligencia artificial

Los autores opinan que la decisión del Gobierno de colaborar con un centro de investigación de Emiratos Árabes Unidos ignora los principios éticos que pretende defender en la economía y en la ciencia

Códigos de informática
Ricardo Baeza-Yates Lorena Jaume-Palasí Carmela Troncoso Ramon López de Mántaras

El filósofo Adam Smith, considerado el padre de la economía moderna, en La riqueza de las naciones (1776) trató la economía de forma sistemática como un subcampo de la ética. Obviamente, la economía se halla estrechamente vinculada a ideas de justicia y equidad, a ideas políticas, y con ello éticas, de progreso o crecimiento. Esas ideas determinan los principios bajo los que la creación de riquezas y recursos son permisibles. Y estos principios determinan que no todo vale con tal de que se produzca riqueza, independientemente del tipo de economía que rija en un país.

La inteligen...

Suscríbete para seguir leyendo

Lee sin límites

El filósofo Adam Smith, considerado el padre de la economía moderna, en La riqueza de las naciones (1776) trató la economía de forma sistemática como un subcampo de la ética. Obviamente, la economía se halla estrechamente vinculada a ideas de justicia y equidad, a ideas políticas, y con ello éticas, de progreso o crecimiento. Esas ideas determinan los principios bajo los que la creación de riquezas y recursos son permisibles. Y estos principios determinan que no todo vale con tal de que se produzca riqueza, independientemente del tipo de economía que rija en un país.

La inteligencia artificial (IA) está siendo aclamada como el futuro de la economía y la ciencia. Considerada como uno de los campos tecnológicos con un gran potencial de innovación, la IA es una disciplina combinable con muchos campos científicos (biología, medicina, ciencias sociales, lingüística o cambio climático). De esos cruces disciplinarios han surgido numerosas aplicaciones en uso tanto en la administración pública, como en el ámbito industrial: sistemas de automatización con el propósito de agilizar la administración en la justicia, predicción de comportamientos tanto en el trabajo policial como en recursos humanos, o para evaluar la solvencia de una persona o su comportamiento al volante. Todos ejemplos en los que existe riesgos de menoscabo de principios democráticos o derechos fundamentales.

El uso de la IA de manera indiscriminada para resolver cualquier problema ha convertido esta disciplina en un espacio en el que antiguas teorías pseudocientíficas, racistas, sexistas y capacitistas, avaladas en su día por políticas del mismo talante, han reaparecido embebidas en sistemas con los que oprimir a gente pobre, personas negras y racializadas, discapacitadas, inmigrantes o mujeres. La IA encubre y oscurece esas teorías con una espesa capa de lenguaje matemático que dificulta la comprensión del impacto de los sistemas creados. Ruha Benjamin, Virginia Eubanks o Safiya Noble han descrito vívidamente en sus obras cómo estas tecnologías han sido usadas para privilegiar de forma encubierta a unos pocos. Una nueva muestra de que no toda innovación es ética.

Es loable que el gobierno español reconociera en su día dichos riesgos y para afrontarlos creara, en el año 2020, un consejo asesor para la IA cuyo objetivo era “proporcionar asesoramiento y recomendaciones independientes sobre las medidas a adoptar para garantizar un uso seguro y ético de la Inteligencia Artificial”, según lee la web de La Moncloa. Y fue bien consecuente al situar su coordinación en el Ministerio de Economía. No obstante, tras la revisión de la Estrategia Nacional de IA (ENIA), el consejo asesor no ha sido consultado para analizar “las implicaciones que estas tecnologías disruptivas supondrán en ámbitos diversos” en la mayoría de los casos, incluyendo el acuerdo entre el ADIA Lab y la Sedia (Secretaría de Estado de Digitalización e Inteligencia Artificial) para instaurar su sede europea en Granada. Un acuerdo que causa gran preocupación, pues contradice los principios de ética y seguridad con los que el gobierno español se comprometió a desarrollar nuevas tecnologías.

El ADIA Lab es un centro científico financiado por la Autoridad de Inversiones de Abu Dabi (ADIA), el emirato más rico de los Emiratos Árabes Unidos, que comenzó a operar en diciembre de 2022. Considerando que ADIA, la entidad que financia ADIA Lab, dispone de activos de alrededor de 800.000 millones de dólares, su inversión en España puede ser considerable.

En los EAU, la ciencia no es independiente del gobierno, según documentan organizaciones como Human Rights Watch. El gobierno influye sobre las decisiones de personal y agenda de los centros de investigación, incluyendo ADIA Lab. Por tanto, la Sedia ha acordado una agenda de investigación centrada, entre otros, en el desarrollo de una modelización económica del cambio climático y sus políticas de mitigación, así como el desarrollo de infraestructuras computacionales éticas con un centro científico financiado por un gobierno que no reconoce la independencia de la ciencia, que pisotea los derechos humanos, en especial de mujeres, de las comunidades LGTBQI+ e inmigrantes, y cuya riqueza proviene principalmente del petróleo.

Es decir, investigaciones sobre la transición climática serán financiadas por entidades cuya riqueza proviene de combustibles fósiles y estudios sobre principios éticos serán financiados por un gobierno que cuestiona la dignidad y los derechos de determinadas personas. Los científicos involucrados en el ADIA Lab, si bien reconocidos en sus campos de especialización, no son expertos en ética, ni en ecología o derecho. Sandy Pentland, por ejemplo, cofundó Aadhaar, que comercializa un controvertido sistema de identificación de personas que facilita la vigilancia masiva en la India. En resumen, la credibilidad de los resultados de esta colaboración podría ser equiparable a la de informes sobre los efectos del tabaco en la salud que en su día hicieron las compañías tabacaleras.

La decisión de la Sedia ignora los principios éticos en la economía, en la ciencia en general y en la IA en concreto. El acuerdo con ADIA Lab reduce la ética en la IA a consideraciones técnicas simplistas e ignora que la ética en la IA también se extiende al contexto político y las condiciones bajo las que se desarrollan y financian sus resultados.

Esta alianza no hará de España un país más puntero en IA ni permite afirmar que “impulsa el desarrollo de una IA ética”, como aseguró la Secretaria de Estado, Carme Artigas, a la Cadena SER. Esta alianza solo pone a los EAU en el mapa de la competición europea y cuestiona la credibilidad con la que la SEDIA afirma querer impulsar el desarrollo ético de la IA.

Por las razones anteriores, tres miembros del consejo asesor para la IA ya dimitieron la semana pasada. Dos de ellos [Ricardo Baeza-Yates y Lorena Jaume-Palasí] son firmantes de la presente carta.

Ricardo Baeza-Yates es director de investigación del Instituto de IA Experiencial de Northeastern University y miembro de varios comités mundiales y estadounidenses de políticas tecnológicas. Es ACM e IEEE Fellow, además de Premio Nacional de Informática Aplicada “Ángela Ruiz Robles”. El viernes pasado renunció al Consejo Asesor de IA del Gobierno.

Lorena Jaume-Palasí es eticista y fundadora de varias ONGs sobre tecnología y ética. Miembro del consejo asesor internacional del Panel para el Futuro de la Ciencia y la Tecnología (STOA) del Parlamento Europeo y del Instituto Max Planck para Sistemas Inteligentes. El jueves pasado renunció al Consejo Asesor de IA del Gobierno.

Ramon López de Mántaras es uno de los pioneros de la IA en Europa y Premio Nacional de Investigación “Julio Rey Pastor” en Matemáticas y TIC por sus contribuciones a la IA.

Carmela Troncoso es profesora adjunta y jefa del Laboratorio de Ingeniería de Seguridad y Privacidad (SPRING) de la Escuela de Ciencias de la Computación y la Comunicación (IC) de la EPFL, Suiza. Es Premio CNIL-INRIA a la Protección de la Privacidad (2017).

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Más información

Archivado En