Armas autónomas y nucleares, robots e inteligencia artificial: cómo regular tecnologías de consecuencias imprevisibles para la humanidad
Ante el avance de la IA, expertos en derechos digitales reclaman comenzar a supervisar los algoritmos y mejorarlos de manera preventiva, para evitar que violen derechos humanos
No es la primera vez que la humanidad se enfrenta a un desarrollo tecnológico de consecuencias imprevisibles para su propia existencia. El escritor Isaac Asimov ya planteó en Círculo vicioso, un relato publicado en 1942, tres normas para proteger a las personas de los robots y su base se sigue usando como referente. El Organismo Internacional de Energía Atómica se creó en 1957 “como respuesta a los profundos temores y las expectativas que infundían los descubrimientos y variados usos de la tecnología nuclear”, según la propia organización. El Derecho Internacional Humanitario (conocido como derecho de la guerra) lleva años buscando una regulación efectiva de los Sistemas de Armas Autónomas Letales, que pueden atacar sin intervención humana. Europa ha arrancado ahora la tramitación de la primera normativa del mundo sobre la inteligencia artificial (IA), un desarrollo tecnológico capaz de acelerar avances en campos fundamentales como la salud o la energía, pero también de amenazar democracias, aumentar la discriminación o romper todos los límites de la privacidad. “Sembrar pánico infundado no ayuda, al contrario. La inteligencia artificial va a seguir funcionando y debemos mejorarla y prevenir”, defiende Cecilia Danesi, divulgadora y abogada especializada en IA y derechos digitales, profesora en varias universidades internacionales y autora de El imperio de los algoritmos (recién publicado por Galerna).
Lo primero que hay que comprender es qué es un algoritmo, la base de la inteligencia artificial. Danesi, investigadora en el Instituto de Estudios Europeos y Derechos Humanos, lo describe en su obra, un compendio fundamental para entender el escenario al que se enfrenta la humanidad, como un “conjunto metódico de pasos que pueden emplearse para hacer cálculos, resolver problemas y alcanzar decisiones”. De esta forma, el algoritmo no es el cálculo, sino el método. Y este es el que puede incluir el modelo preciso para identificar un cáncer en imágenes, descubrir una nueva molécula con usos farmacológicos, hacer más eficiente un proceso industrial, desarrollar un nuevo tratamiento o, por el contrario, generar discriminación, una información falsa, una imagen humillante o una situación injusta.
El director de OpenAI, Sam Altman, el premio Turing Geoff Hinton, el investigador de IA Yoshua Bengio y Elon Musk, entre otros, han reclamado la regulación y acción urgente para abordar los “riesgos existenciales” que la IA representa para la humanidad. Entre estos destacan el aumento y amplificación de la desinformación (como la preponderancia de contenidos falsos y maliciosos en plataformas sociales), los sesgos que refuerzan las desigualdades (como el sistema de crédito social chino o la consideración mecánica de personas como riesgos potenciales por su etnia) o la ruptura de todos los límites de la privacidad para recabar los datos que alimentan el algoritmo y que permanecen ocultos.
La Unión Europea ha comenzado a negociar la que, de cumplirse los plazos, está llamada a ser la primera ley de IA del mundo. Se podría aprobar durante la presidencia española de la UE y tiene como objetivo prevenir los usos considerados como “riesgos inaceptables” (reconocimiento facial indiscriminado o manipulación del comportamiento de las personas), regular su uso en sectores como la salud y la educación, así como sancionar e impedir la venta de sistemas que incumplan la legislación.
La Unesco ha desarrollado un marco ético voluntario, pero este mismo carácter es su principal debilidad. China y Rusia, dos países que utilizan esta tecnología para vigilancias masivas de la población, han firmado estos principios.
“Hay derechos fundamentales involucrados y es un tema que nos tiene que ocupar y preocupar, sí, pero con equilibrio”, defiende Danesi. Es un criterio similar al que expone Juhan Lepassaar, director ejecutivo de la Agencia Europea de Ciberseguridad (Enisa por sus siglas en inglés): “Si queremos asegurar los sistemas de IA y también garantizar la privacidad, debemos analizar cómo funcionan estos sistemas. ENISA está estudiando la complejidad técnica de la IA para mitigar mejor los riesgos de ciberseguridad. También necesitamos encontrar el equilibrio adecuado entre seguridad y rendimiento del sistema”.
Uno de los riesgos expuestos hasta ahora ha sido la sustitución de personas por máquinas operadas por la IA. En este sentido, la investigadora Cecilia Danesi afirma: “Las máquinas nos van a reemplazar y ya lo están haciendo. Hay muchísimas que nos sustituyen, potencian el trabajo o nos complementan. El tema está en qué y dónde queremos que nos reemplacen y qué requisitos tienen que cumplir estas máquinas para tomar ciertas decisiones. Primero tenemos que identificar un problema o una necesidad que justifique utilizarla o no”.
En el campo de la robótica, Asimov ya se anticipó a este problema y estableció tres principios: 1) Un robot no hará daño a un ser humano ni permitirá que, por inacción, esta sufra daño; 2) Un robot obedecerá las órdenes que reciba de un ser humano, a no ser que las órdenes entren en conflicto con la primera ley; y 3) Un robot protegerá su propia existencia en la medida en que dicha protección no entre en conflicto con las leyes primera y segunda.
Supervisión permanente y preventiva
“Parece genial. Listo: la inteligencia artificial nunca pueda dañar a un humano. Divino. El problema es que en la práctica no está tan claro”, explica Danesi. La investigadora recuerda “un caso en el que programaron dos máquinas para optimizar una negociación y el sistema entendió que la mejor manera era crear otro lenguaje más eficiente. Quienes habían diseñado el programa no podían entender ese lenguaje y las desconectaron. El sistema se manejó dentro de los parámetros, pero la inteligencia artificial puede ir más allá de lo que se imagina”. En este caso, la máquina no dañó a sus programadores, pero los excluyó de la solución y de las consecuencias de esta.
La clave, para Danesi, es “la supervisión permanente, las auditorías algorítmicas de estos sistemas que son de alto riesgo, que pueden afectar de manera considerable derechos humanos o cuestiones de seguridad. Tienen que ser evaluados y revisados para comprobar que no violan derechos, que no tienen sesgos. Y debe hacerse de forma continuada porque los sistemas, como siguen aprendiendo, pueden adquirir un sesgo. Y se debe actuar de forma preventiva para evitar daños y generar sistemas que sean éticos y respetuosos con los derechos humanos”.
Otro de los grandes peligros del uso sin control de la IA es su utilización con fines militares. La propuesta de normativa de la UE excluye este aspecto en su primera redacción. “Es uno de los usos más peligrosos que tienen la inteligencia artificial. Muchas veces las leyes prohíben algo que, luego, en la práctica, sigue funcionando y es donde más daño puede hacer a las personas”, lamenta la investigadora.
“¿Debemos temerles a las máquinas?, la respuesta es ¡No! Debemos, en su caso, temerles a las personas por el uso que puedan llegar a darle a la tecnología”, defiende Danesi en su obra El imperio de los algoritmos.
Respeto a los datos de los ciudadanos
En términos parecidos se pronuncia Manuel R. Torres, catedrático de Ciencia Política de la Universidad Pablo de Olavide y miembro del consejo asesor del Real Instituto Elcano. “El problema es la proliferación de una tecnología que hay que evitar que llegue a la mano incorrecta. No es simplemente un conocimiento que se ha liberado al mundo y que cualquiera puede hacer uso”.
Torres añade un problema al escenario tecnológico y a la propuesta de normativa europea, que defiende como potencia reguladora: “El conflicto está en cómo se desarrolla esa tecnología en otros ámbitos que no tienen ningún tipo de escrúpulo ni limitación en cuanto al respeto de la privacidad de los ciudadanos que alimentan todo eso con sus datos”.
El politólogo pone como ejemplo el caso de China: “No solo está dentro de esa carrera de tecnológica, sino que no tiene ningún tipo de problema en utilizar de manera masiva los datos que dejen sus propios ciudadanos para alimentar y perfeccionar esos sistemas. Por muy escrupulosos que queramos ser con los límites que ponemos a nuestros desarrolladores locales, al final, si esto no se produce de manera global, también es peligroso”.
Torres concluye: “Nos encontramos en un territorio donde hay pocos referentes en los que nos podemos apoyar para saber cómo tenemos que abordar el problema y donde, además, hay un problema de entendimiento de las repercusiones de esa tecnología. Muchos de nuestros legisladores no son precisamente personas familiarizadas con estos desarrollos”.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.