Inteligencia artificial: dónde está Bruce Willis cuando se le necesita
En lugar de resolver los problemas existenciales de la inteligencia artificial de manera lógica, desconectarla de internet o prohibirla operar, EE UU y la UE reaccionan con una salida “voluntaria”
En todos los años que llevo en el mundo jurídico no había visto a nadie usar el argumento de “estoy muy loco, paradme” para evitar la regulación. “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, ...
En todos los años que llevo en el mundo jurídico no había visto a nadie usar el argumento de “estoy muy loco, paradme” para evitar la regulación. “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, firman y afirman Demis Hassabis, CEO de Google DeepMind, o Sam Altman, CEO de OpenAI - de bolos por Europa- entre una larga lista de gestores y científicos expertos en IA en una declaración publicada en el web del Center for AI Safety, organización sin ánimo de lucro de la que no es posible saber por su web cuándo se constituyó ni quien paga las facturas.
Leo esto y solo puedo pensar, pues apagadla y dejadnos seguir con nuestra vida de elección en elección, que bastante tenemos con nuestros riesgos existenciales cotidianos como para lidiar con el fin del mundo a manos de Skynet. Si aplicamos el estado de alarma a los controladores aéreos para irnos de vacaciones, no sé qué hace Biden que no manda a la Guardia Nacional a la sede de OpenIA a apagar los servidores. Si estuviera Bruce Willis al mando habría acabado con tanta tontería ya, pero parece que solo tenemos burócratas naïfs víctimas del tocomocho.
Apliquemos la lógica de los colapsos inminentes. En el caso de la amenaza nuclear, el riesgo se mitiga con el equilibrio de fuerzas, con el principio de destrucción mutua asegurada. Me gustan principios así, basados en el profundo conocimiento de la naturaleza humana, de esos que interpelan a la amígdala y funcionan bien en caso de conflicto. El riesgo de pandemia, como hemos experimentado en nuestras carnes, es multifactorial en sus causas y en sus responsables, por lo que es difícil de mitigar. Así que como no somos capaces de poner medidas efectivas para limitar su ocurrencia (aunque las haya) lo que hacemos es reaccionar desarrollando nuevas vacunas que, si funcionan adecuadamente, mitigarán el riesgo de que una pandemia vuelva a suceder.
Con sus defectos, estos sistemas de mitigación de riesgos parecen racionales, basado en la experiencia y la ciencia. Pero cuando llegamos a cómo resolver los problemas existenciales de una IA asesina en lugar de hacer lo lógico, apagarla o desconectarla de internet, prohibirla operar o tirarla a la basura, nuestra reacción es hacerle una auditoría, eso sí voluntaria, no se vaya a enfurecer HAL antes de tiempo y nos lance una lluvia de fuego y ranas asesinas que nos convierta en protagonistas de la vigesimocuarta serie de zombis. Reconozco que esta lógica o su ausencia me supera. Y reconozco que la reconozco porque los jefes de las tecnológicas son unos trileros muy listos que nos llevan toreando desde hace unas cuantas décadas.
Antes les bastaba con poner “innovación” al principio de las frases para convencer a unos gobernantes más interesados por conquistar el campo de batalla que en los derechos de los ciudadanos. La lógica de dejar crecer y luego regular está en todas las revoluciones industriales y sociales, y, por tanto, tiene una base racional aunque se haya equivocado estrepitosamente en esta. En el análisis de riesgos racional se ponderó más el crecimiento económico, el control de sectores claves y el posicionar a EEUU a la cabeza muy por encima de los derechos individuales. No me gusta, se han equivocado en el cálculo a largo plazo, pero responde a una metodología racional. Cuando pensamos en riesgos existenciales preferimos que todo el mundo se deje las emociones en casa.
Ahora que los reguladores y gobiernos no están, con respecto a las tecnológicas, en el ciclo expansionista, sino en el regulatorio, los technomoguls saben que innovar es mucho más complicado. Y eso es un fastidio cuando te has gastado la hijuela en una tecnología de crecimiento lento pero de explosión y expansión rápida. Qué mala pata, ha debido de pensar Sam Altman, que no me ha pillado el estallido de la IA generativa al principio de los dos mil. Qué tiempos para hacer lo que a uno le daba la gana. Así que, chico listo, nos ha aplicado una descarga de doctrina del shock y se ha quedado tan ancho. Naomi Klein lo estudió muy bien en su obra del mismo título: si asustas lo suficiente, te dejarán hacer lo impensable. Y lo ejemplificó en su obra con el desastre que supuso la aplicación del susto o muerte en el Chile de Pinochet, laboratorio de prueba de las políticas económicas ultraliberales de Friedman y la Escuela de Chicago. Da igual cuántas explicaciones de blog minoritario se den para explicar cómo nos están distrayendo de lo importante. El susto está dado y Bruce ni viene ni se le espera.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.