De la fascinación a la agenda oculta: el año de ChatGPT define la batalla por el futuro de la humanidad
El asombro ante las inteligencias artificiales creativas provoca la fiebre del tecnocapitalismo por acaparar los beneficios y forzar que la regulación favorezca sus intereses frente a los de la sociedad
Una sola mueca puede abarcar un mundo. Como la de Lee Sedol, campeón mundial del Go, cuando se enfrentó por primera vez en 2017 a una máquina capaz de vencerlo: AlphaGo, creada por DeepMind, la vanguardia científica de Google. Sedol, maestro imbatible de un juego milenario con más jugadas posibles que átomos hay en el universo, estaba convencido de que ganaría 5-0. Perdió 4-1. Durante las cinco partidas de la contienda, la humanidad entera se vio reflejada en el rostro de Sedol cuando obser...
Una sola mueca puede abarcar un mundo. Como la de Lee Sedol, campeón mundial del Go, cuando se enfrentó por primera vez en 2017 a una máquina capaz de vencerlo: AlphaGo, creada por DeepMind, la vanguardia científica de Google. Sedol, maestro imbatible de un juego milenario con más jugadas posibles que átomos hay en el universo, estaba convencido de que ganaría 5-0. Perdió 4-1. Durante las cinco partidas de la contienda, la humanidad entera se vio reflejada en el rostro de Sedol cuando observó un movimiento ganador de la máquina, tan inesperado como fascinante. El campeón se quedó boquiabierto y, tras unos segundos pasmado, sonrió con desenfado. Y luego frunció el ceño, concentrándose de nuevo en su lance intelectual. En su gesto se resume lo que ha pasado este año en todo el planeta tras la irrupción de ChatGPT y el resto de las inteligencias artificiales creativas. Nos hemos sentido atónitos, maravillados, desafiados. Porque la inteligencia que nos asombra es la que nos habla. Sedol entendía que le hablaban con palabras nuevas, pero en un lenguaje humano, el de su juego. Esa es la clave de todo lo que ha ocurrido: solo cuando nos hemos visto reflejados en el espejo de una máquina parlante nos la hemos tomado en serio. Mientras tanto, por debajo del ruido de los titulares, la seducción de las máquinas tejía una agenda oculta.
“El famoso filósofo José Ortega y Gasset dijo: ‘Sorprenderse y maravillarse es comenzar a entender”, resume Sara Hooker, una de las investigadoras más destacadas del sector, tras su paso por Google Brain y fundar Cohere For AI, un laboratorio de investigación sin ánimo de lucro. “Este año ha sido el año de la sorpresa y la maravilla, cuando avances rompedores en la inteligencia artificial del lenguaje han alcanzado al gran público más allá del mundo científico”, apunta Hooker. “Pero eso también marca el comienzo de nuestra capacidad de comprender cómo usar esta tecnología de modo significativo y responsable”. Es un ciclo, recuerda la investigadora, que ya hemos visto antes con internet o los móviles y ahora llega con la inteligencia artificial generativa, la que es capaz de crear textos e imágenes: “Lleva tiempo descubrir los mejores usos y cómo desarrollarlos. No sucede de la noche a la mañana”, señala la investigadora, que ha redactado el documento de base de la Cumbre de Seguridad en la Inteligencia Artificial celebrada en Bletchley Park (Reino Unido), la cuna de la computación moderna. De esa cumbre, impulsada por el primer ministro británico, Rishi Sunak, salió el 1 de noviembre una declaración en la que una treintena de naciones (como Estados Unidos, el Reino Unido, China o España) reclaman seguridad y transparencia al sector.
Otro filósofo, Daniel Innerarity, director de la cátedra de Inteligencia Artificial y Democracia en el Instituto Europeo de Florencia, cree que estos avances han generado un ambiente que se atreve a calificar como “histeria digital”, a partir de noticias “que suscitaban miedos y expectativas exageradas”. La histeria digital de estos últimos 12 meses se encendió con el fuego de dos antorchas: la sorpresa de la que habla Hooker, pero también la avaricia de las grandes tecnológicas. Alphabet (Google), Meta, Microsoft y demás quieren que el salto a esta nueva herramienta garantice su crecimiento infinito y se han lanzado a la conquista de este nuevo terreno de juego, visto el impacto global de ChatGPT.
Pero esa revolución comercial —y la carrera política por regularla— necesitaba del combustible atómico de la fascinación humana. Ese impacto ha sido el gran catalizador de un fenómeno que ha acaparado gran parte de la conversación global y que llevó a Sam Altman, hasta el viernes líder de OpenAI (la empresa que desarrolló ChatGPT), a reunirse con gobernantes de todo el planeta en una gira impensable unos meses antes para un emprendedor desconocido, ahora despedido. “La clave del éxito ha sido la conversación. El momento en el que una máquina empezó a generar ideas, a articular lenguaje con una fluidez y sutileza sorprendentes, ese fue el gran cambio”, señala el neurocientífico Mariano Sigman, que ha reflexionado sobre este asombro en Artificial (Debate). “Gracias a eso hay una enorme conciencia sobre las consecuencias que acarrea la inteligencia artificial, que hubiesen pasado inadvertidas si hubiese permanecido en una esfera mucho más selecta”, advierte el investigador.
La inteligencia artificial (IA) llevaba años revolucionando sectores y logrando grandes éxitos, como destronar a Sedol, detectar tumores mejor que los radiólogos, conducir coches razonablemente bien o descubrir cómo se pliegan las proteínas para abrir la puerta a innumerables medicamentos. Pero nada como el magnetismo irresistible que ejerce sobre los humanos una máquina capaz de conversar: el programa de OpenAI muestra más empatía que los médicos a la hora de trasladar un diagnóstico, según un estudio realizado por universidades de EE UU. Esa capacidad de hablar con sentimientos hizo que el ojo de Sauron de la atención global se girara hacia la IA. Y es lo que ha convencido a dirigentes globales de que el problema, o la revolución, requería tomar medidas aquí y ahora.
El presidente Joe Biden ya ha publicado su marco legislativo para EE UU, y la Unión Europea quiere tener lista una normativa este año. Mientras, los expertos en este campo informático publican artículos sobre la conciencia humana como si fueran filósofos, los padres de esta tecnología debaten sobre el apocalipsis como si fueran profetas y mantienen discusiones bizantinas en redes, como sacerdotes de un misterio esotérico inaccesible para los demás. Pero del resultado de estos debates dependerá el futuro de la humanidad, si hacemos caso a los agoreros, o al menos determinará el devenir de ámbitos tan dispares como el mercado laboral, la privacidad, la desinformación o la cultura y los derechos de autor.
Uno de esos padres es Jürgen Schmidhuber, director del Instituto de Inteligencia Artificial de la Universidad de Suiza, que puso los primeros ladrillos de modelos decisivos: “Lo curioso es que los principios básicos detrás de la IA generativa tienen más de tres décadas”. Y se pregunta: “¿Por qué tardó tanto en despegar todo esto? Porque en 1991 la computación era millones de veces más cara que hoy. En aquel entonces, solo podíamos hacer pequeños experimentos de juguete. Esa es la principal razón por la que, en la última década, empresas como Google, OpenAI, Microsoft o Samsung han podido implementar nuestras técnicas miles de millones de veces al día en miles de millones de smartphones y ordenadores en todo el mundo”.
En este momento, es difícil discernir cuál será el futuro de la IA y de la creatividad artificial más específicamente: si hay burbuja o revolución. Las estimaciones sobre el valor de esta industria para 2030 se disparan hasta los 180 billones de euros. En el último año, sin embargo, solo se han invertido 2.300 millones de euros en IA generativa frente a los 65.000 millones de la IA tradicional —que pilota aviones o lee currículos—, según el informe de la firma Menlo Ventures. “Dentro de 30 años, la gente solo sonreirá ante las aplicaciones de hoy, que les parecerán primitivas en comparación con lo que estará disponible entonces; la civilización tal como la conocemos se transformará completamente y la humanidad se beneficiará enormemente”, profetiza Schmidhuber.
Dos semanas de noviembre
Hubo dos semanas que lo cambiaron todo para siempre. El 15 de noviembre de 2022, Meta lanzó Galactica, una versión de prueba de una inteligencia artificial capaz de crear lenguaje, orientada más a la creación de textos académicos. Duró tres días en el aire: Meta la tumbó tras recibir críticas durísimas por promover información sesgada y falsa: Galactica “alucinaba”, como se denomina a los errores de bulto que cometen estos programas. El 30 de noviembre, OpenAI hizo público su programa, ChatGPT, que también alucinaba. Pero había dos diferencias importantes. La empresa de Mark Zuckerberg tenía un pasado controvertido que le pasó factura y la de Sam Altman había tenido la astucia de entrenar previamente a ChatGPT con personas. Tras el desarrollo tecnológico, la máquina aprendió hablando con tutores de carne y hueso, que reforzaban las respuestas más humanas. Galactica se quedó en un cajón y ChatGPT se convirtió en uno de los programas de mayor éxito de la historia, logrando en seis meses el impacto social que a Facebook le llevó toda una década.
Lo sucedido entre el 15 y el 30 de noviembre fue también un cambio radical de mentalidad entre los gigantes tecnológicos, que llevaban más de un lustro invirtiendo miles de millones en IA y vaciando los departamentos de informática de las universidades al contratar a todo científico relevante. En todo ese tiempo, los laboratorios de estas compañías se centraron en desarrollos como Galactica oAlphaGo: pruebas fascinantes, logros científicos notables, pero poco producto con verdadero poder comercial. Es más, Google iba muy por delante, pero no se atrevió a lanzar esos productos al mercado por miedo a poner en riesgo el liderazgo de su buscador —si le puedes preguntar a un chat inteligente no se lo preguntas a un buscador tonto—, según se ha conocido en las investigaciones sobre sus prácticas monopolísticas. En enero, Microsoft anunció un acuerdo de 9.200 millones de dólares en OpenAI y se dispararon todas las alarmas en Google. Con el pie cambiado, el titán de las búsquedas cambió sus dudas iniciales por un “código rojo” interno para incorporar la IA generativa a todos sus productos, además de fusionar sus dos laboratorios, DeepMind y Google Brain, en un solo departamento con una misión menos científica y más productiva.
De los experimentos se pasó al marketing. Y los mismos empresarios que invertían millones en estos algoritmos alertaban sobre el riesgo para la humanidad y reclamaban regulación inmediata. Altman aseguró que si la IA sale mal, “esconderse en un búnker no salvaría la vida de nadie”. Mientras miles de chicas se veían pornificadas por programas fruto de estas tecnologías, la aristocracia tecnocapitalista agitaba el fantasma de Terminator, la película en la que las máquinas someten a la especie humana. Nada tan expresivo como cuando Biden reconoce que su interés por legislar se aceleró tras ver la última película de Misión imposible, en la que un programa, La Entidad, pone contra las cuerdas a todas las potencias mundiales. Los políticos han decidido actuar cuanto antes por el temor a que les pase con las manipulaciones de imágenes y audios (deepfakes) lo que pasó con la desinformación de Facebook hace años.
Hooker reconoce que hay “riesgos significativos” derivados de la IA, pero le preocupa que no se están priorizando correctamente. “Los escenarios más teóricos, y en mi opinión, extremadamente improbables, como los terminators tomando control del mundo, han recibido una cantidad desproporcionada de atención por parte de la sociedad. Creo que es un gran error y que deberíamos abordar los riesgos muy reales a los que nos enfrentamos actualmente, como los deepfakes, la desinformación, los sesgos y las ciberestafas”. Ese discurso catastrofista desde las grandes compañías se interpreta, según muchos especialistas, como un interés en conseguir una regulación a su medida. Las cuatro compañías ganadoras hasta ahora en la carrera (conocidas como GOMA: Google, OpenAI, Microsoft y Anthropic, fundada por exmiembros de OpenAI) han creado su propio grupo de presión para impulsar su marco regulatorio. El jefe científico en Meta, Yann LeCun, asegura que solo quieren frenar la llegada de competidores con una regulación a su medida: “Altman, Demis Hassabis [Google DeepMind] y Dario Amodei [Anthropic] son quienes están realizando un lobby intenso en este momento”. Andrew Ng, exdirector de Google Brain, ha sido muy expresivo: “Preferirían no tener que competir con el código abierto, por lo que están creando temor a que la IA conduzca a la extinción humana”.
Más de la mitad de los profesores universitarios de este sector en EE UU cree que los líderes corporativos están engañando a la sociedad para favorecer sus agendas. Incluso el consejo de OpenAI ha destituido este pasado viernes a Altman, casi en el primer aniversario de ChatGPT, por considerar que no es sincero con la empresa. El periplo del magnate Elon Musk en estos años también es muy representativo. Impulsó la creación de OpenAI para combatir la opacidad de Google. Quiso controlar la empresa al atisbar su potencial y acabó saliendo de ella, peleado con Altman. Tras el bombazo global de ChatGPT, Musk fue de los primeros en pedir una moratoria de seis meses en el desarrollo de la IA. En realidad, estaba trabajando en la sombra para crear su propia empresa, X.AI (que se conoció solo un mes después), y su propio programa inteligente, llamado Grok y presentado el 4 de noviembre.
“Corremos el riesgo de afianzar aún más el dominio de unos pocos actores privados sobre nuestra economía y nuestras instituciones sociales”, advierte Amba Kak, directora ejecutiva del AI Now Institute, uno de los organismos que vigilan con más celo este campo. No es casualidad que el gran año de esta tecnología también haya sido el de su mayor opacidad: nunca las empresas que desarrollan la IA compartieron menos sobre sus datos, sus trabajos, sus fuentes. “A medida que aumentan los intereses económicos y las preocupaciones por la seguridad, las compañías que normalmente son abiertas han empezado a ser más secretas sobre sus investigaciones más innovadoras”, lamenta el informe anual sobre el sector que realiza la firma de capital riesgo Air Street Capital.
En su último libro, Poder y progreso (Deusto), los profesores Daron Acemoglu (MIT) y Simon Johnson (Oxford) advierten que la historia demuestra que las nuevas tecnologías no benefician a toda la población de forma natural, sino solo cuando se combate a las élites que tratan de acaparar ese progreso en forma de beneficios. “El sector tecnológico y las grandes empresas tienen hoy mucha más influencia política que en cualquier otro momento de los últimos 100 años. A pesar de sus escándalos, los magnates tecnológicos son respetados e influyentes en la sociedad y solo en raras ocasiones alguien les cuestiona el tipo de progreso que están imponiendo al resto de la sociedad”, critican. “En la actualidad, gran parte de la población mundial vive mejor que nuestros antepasados porque la ciudadanía y los trabajadores de las primeras sociedades industriales se organizaron, cuestionaron las decisiones de la élite sobre la tecnología y las condiciones laborales, y forzaron la creación de nuevos mecanismos para repartir de forma más igualitaria los beneficios derivados de la innovación. Hoy en día necesitamos volver a hacer lo mismo”.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.