_
_
_
_
_

¿Y si la inteligencia artificial no es el apocalipsis? “Es como decir que viene el coco”

La mezcla de miedo y moda ha convertido a esta tecnología en protagonista de un posible cambio radical y profundo que quizá no llegue tan lejos

Sam Altman, responsable de ChatGPT, habla con periodistas antes de comparecer en el Senado de EE UU el 16 de mayo. Foto: JIM LO SCALZO (EFE) | Vídeo: EPV
Jordi Pérez Colomé

En apenas seis meses, las búsquedas de “inteligencia artificial” en Google se han multiplicado por cinco. ChatGPT, lanzado el 30 de noviembre, tiene decenas de millones de usuarios. Sam Altman, director ejecutivo de OpenAI, creadores de ChatGPT, ya ha ido al Congreso a explicarse sobre el impacto de la inteligencia artificial. Mark Zuckerberg tardó 14 años en ir a Washington a hablar del papel de Facebook en la sociedad. Y Altman no se ha cortado: “Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal”, dijo.

Las frases pesadas y grandilocuentes sobre la explosión de la IA han generado ya sus propios memes. También ha popularizado el término “criti-hype” [criti-bombo], creado en 2021 para definir las críticas a una tecnología nueva que acaban por darle más bombo aún: un ejemplo pionero de “criti-hype” fue Cambridge Analytica, que le otorgaba a Facebook con su crítica el poder de elegir presidentes.

La cima de estas declaraciones fue la salida de Google de Geoff Hinton, padrino de la IA, para poder hablar con libertad de sus peligros: “Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores”, decía en EL PAÍS. El saliente asesor científico principal del Gobierno de Reino Unido acaba de decir que la IA podría generar una nueva “revolución industrial”. Hay ya colectivos tratando de organizarse para que sus oficios no sean barridos por esta tecnología. En el caso de Altman, algunos analistas indican que esas palabras sobre sus “miedos” también puede servir para provocar que se regule la entrada de nuevos competidores en un mercado en el que ya ocupan una posición ganadora.

Esta pequeña lista son solo un puñado de ejemplos de todas las profecías y temores sobre la IA. Pero también puede ser que el impacto sea más asumible: ¿y si todo acabara por ser más lento, con menos sustos o más digerible de lo que ahora parece? Es una opción válida, aunque por ahora menos explorada. Es difícil negar el impacto en muchos ámbitos, pero cambiar el mundo es un proceso arduo. Las grandes revoluciones similares anteriores han cambiado profundamente nuestro modo de vida, pero los humanos se han acostumbrado sin terremotos. ¿Puede la IA acabar igual?

“Como mínimo, es un gran cambio estructural en lo que puede hacer el software”, dice Benedict Evans, analista independiente y ex socio de Andreessen Horowitz, una de las principales empresas de capital de riesgo de Silicon Valley. “Probablemente, permita que muchas cosas nuevas sean posibles. Esto hace que la gente lo compare con el iPhone. Podría ser incluso más que eso: podría ser más comparable al PC o a la ‘interfaz gráfica de usuario’ [conocido como GUI en sus siglas EN inglés]”, que permite la interacción con el ordenador a través de los elementos gráficos de la pantalla. Es un impacto extraordinario, pero da más contexto.

Estas nuevas tecnologías han tenido un peso obvio en el trabajo. “Mi preocupación no es que la IA reemplace a los humanos”, dice Meredith Whittaker, presidenta de Signal, la app de mensajería. “Pero estoy profundamente preocupada de que las empresas lo utilicen para degradar y disminuir la posición de sus trabajadores hoy. El peligro no es que la IA haga el trabajo de los trabajadores, es que la introducción de la IA por parte de los empleadores se utilizará para empeorar estos trabajos, exacerbando aún más la desigualdad”, añade.

Aún debe mejorar, pero cuánto

Con mayor o menor fuerza su impacto en el trabajo será notable. Pero hay algo aún poco definido sobre estas IA: aún se equivocan mucho, sus llamadas alucinaciones. Es uno de los temas más fascinantes. El profesor de la Universidad Politécnica de Valencia e investigador del Centro Leverhulme por el Futuro de la Inteligencia de Cambridge (Reino Unido) José Hernández-Orallo lleva años estudiándolo: “De momento están al nivel de un cuñado sabelotodo, en el futuro estarán al nivel de un buen experto, quizás más en unos temas que en otros: eso es lo que nos causa ansiedad porque no sabemos en qué temas es fiable. Es imposible hacer un sistema que no falle nunca, porque siempre le preguntaremos cosas más complejas. Los sistemas son capaces de lo mejor y de lo peor, son muy impredecibles”, explica.

Si no están maduros, ¿por qué han tenido este impacto tan repentino y grande en estos meses? Hay al menos dos motivos, dice Hernández-Orallo: primero, la presión comercial. “El mayor problema viene porque hay una presión comercial, mediática y social a que estos sistemas siempre respondan algo, incluso cuando no están seguros. Si se pusieran unos umbrales más altos, estos sistemas fallarían menos, pero contestarían ‘no lo sé’ casi siempre. Hay miles de maneras de resumir un texto y hacerlo bien y la probabilidad de cada uno de ellos es muy baja”, dice.

Segundo, la percepción humana: “Tenemos la impresión que un sistema de IA debe ser 100% correcto, como una mezcla de calculadora y enciclopedia”, dice Hernández-Orallo. Pero no es así. “Para los modelos de lenguaje, generar un texto plausible, pero falso, es más sencillo. Igual ocurre con audio, vídeo, código. Los humanos también lo hacen todo el tiempo. Es especialmente evidente en los niños, que responden con frases que suenan bien, pero pueden carecer de sentido y les decimos ‘qué gracioso’, pero no vamos al pediatra porque ‘mi hijo alucina mucho’. Detrás de ambos casos, niños y ciertos tipos de IA, está la función objetivo de imitar lo mejor posible”, explica.

¿Y si nos hace dudar?

El gran impacto laboral se irá matizando cuando haya cosas que la IA no acabe de hacer bien o, similar, no sepamos si la está haciendo bien. Será difícil cuando la interroguemos sobre un libro que no hemos leído, si la respuesta es completamente fiable. Es probable que lo sea. O no. En algunos casos la duda será aceptable. En otros será un problema grave. Es probable que incluso asumamos parte de los errores como posibles y los aceptemos. Pero aún no llegamos a esa etapa.

Esta delimitación de su impacto no limita el probable temor principal: la llamada inteligencia artificial general o, mejor, sistemas de IA mucho más avanzados de los que tenemos hoy. En la imaginación colectiva se ha convertido en un concepto parecido a la “máquina que toma el control del software del mundo y destruye a los humanos”. “La gente usa ese concepto para todo, como cuando le dices a los niños que viene el coco”, expresa Hernández-Orallo. “La cuestión es, por ejemplo, un sistema de propósito general como GPT-4 cuánta capacidad tiene y si es preciso que sea más potente que un humano, todos los humanos, la media, el más listo, y para qué tareas. Todo está muy mal definido, y es imposible de verificar llegados a ese punto”.

Aunque este miedo al “coco” sea difícil de concretar, puede ser un concepto útil para pensar el futuro desde hoy: “Desde que hemos concebido máquinas que puedan reemplazarnos, las hemos temido. Tenemos pruebas sólidas de que necesitamos crítica y miedo, así como imaginación y asertividad cuando se trata de pensar en nuevas tecnologías”, asegura Matt Beane, profesor de la Universidad de California en Santa Bárbara.

Por ahora, en el pasado, este temor ha sido recurrente. “Parecemos caer en una especie de trance en relación con estos sistemas [de IA], contando nuestra experiencia a estas máquinas”, dice Whittaker. Y añade: “Reflexivamente, pensamos que son humanos, y comenzamos a asumir que nos están escuchando. Si observamos la historia de los sistemas que precedieron a ChatGPT, es notable que, aunque estos sistemas eran mucho, mucho menos sofisticados, la reacción a menudo era la misma. Las personas se encerraban en una relación íntima sucedánea con estos sistemas cuando los usaban, y como ahora, los expertos predecirían que estos sistemas pronto (siempre era “pronto”, nunca “ahora”) serían capaces de reemplazar a los humanos por completo”.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites
_

Sobre la firma

Jordi Pérez Colomé
Es reportero de Tecnología, preocupado por las consecuencias sociales que provoca internet. Escribe cada semana una newsletter sobre los jaleos que provocan estos cambios. Fue premio José Manuel Porquet 2012 e iRedes Letras Enredadas 2014. Ha dado y da clases en cinco universidades españolas. Entre otros estudios, es filólogo italiano.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_