_
_
_
_
_
Inteligencia artificial
Análisis
Exposición didáctica de ideas, conjeturas o hipótesis, a partir de unos hechos de actualidad comprobados —no necesariamente del día— que se reflejan en el propio texto. Excluye los juicios de valor y se aproxima más al género de opinión, pero se diferencia de él en que no juzga ni pronostica, sino que sólo formula hipótesis, ofrece explicaciones argumentadas y pone en relación datos dispersos

Eliza, Terminator y el peligro encubierto de ChatGPT

El tecnocapitalismo más voraz concentra hoy todo el poder de la inteligencia artificial, mientras se distrae a la opinión pública con una fantasiosa distopía en forma de máquinas que someten a la humanidad

ChatGPT
Ilustración promocional de 'Terminator'.Cordon
Javier Salas

Era 1966 cuando Joseph Weizenbaum, pionero de la inteligencia artificial en el MIT, descubrió que tenía algo incómodo entre manos. Había desarrollado uno de los primeros chatbots, una computadora capaz de fingir una conversación humana con razonable éxito. Se llamaba Eliza, y se convertiría en un hito para esa tecnología incipiente. Pero también en un punto de inflexión para su inventor, después de observar el efecto que ejercía sobre las personas. Weizenbaum quedó horrorizado tras dejar que su secretaria usara Eliza: al cabo de un rato, le pidió que saliera de la habitación para tener intimidad en su conversación con la máquina. La anécdota sirve para leer con perspectiva el fenómeno actual del ChatGPT.

Eliza, en su versión Doctor, había sido creada como una parodia de las respuestas de los psicoterapeutas que devolvían en forma de preguntas las afirmaciones de los usuarios. La intención era “demostrar que la comunicación entre una persona y una máquina era superficial”, pero al ver que su secretaria y muchas más personas se abrían por completo al dialogar con Eliza, Weizenbaum descubrió una verdad muy distinta. “No me había dado cuenta de que incluso cortísimas exposiciones a programas relativamente simples podrían inducir poderosos pensamientos ilusorios en gente normal”, escribió posteriormente.

El programa de Weizenbaum era muy básico, lejos de la sofisticación de las actuales inteligencias conversacionales que acaparan titulares y llenan las redes con ejemplos espectaculares. Pero el efecto que provocan es el mismo que Eliza, como demostró el ingeniero de Google convencido de que LaMDA, otra de estas máquinas, tenía la conciencia de un niño de siete años. Seguimos proyectando capacidades humanas en las máquinas porque nosotros, los humanos, también estamos programados para charlar. Como explica el neurocientífico Mariano Sigman, lo que nos define como especie es que somos animales conversacionales: nos definimos, moldeamos y realizamos a través de las palabras que compartimos con otros. Dialogar está en nuestro ADN y el cerebro resuelve esa disonancia cognitiva aceptando que ese programa, aunque sepamos que es una caja negra de silicio, es un ser que quiere comunicarse con nosotros.

Después de Eliza llegaría Parry, que simulaba ser un esquizofrénico, y más tarde Alice o Siri, o las más recientes y conocidas para el público español, como Irene de Renfe y Bea en Bankia (asistentes virtuales desarrolladas en España). En lo peor de la crisis de reputación del banco, con la investigación a Rodrigo Rato por sus presuntos delitos, fue Bea la que mantuvo en pie la página web de la entidad con su capacidad para darle palique a quienes entraban en tromba para saturar sus sistemas y tumbar el portal. La gente no podía resistirse a volcar su indignación con insultos personificadores hacia ella.

Weizenbaum no entendía que la gente tomara a Eliza como el primer paso hacia una máquina que pudiera simular la inteligencia humana. Pensaba que era una fantasía peligrosa y que era “monstruosamente erróneo” entenderlo como algo más que un simple programa que ejecutaba una función. Weizenbaum abandonó Eliza y se convirtió en un crítico de la idea de que las máquinas podían ser inteligentes, porque inocular ese marco mental en la sociedad sería “un veneno de efecto retardado”.

Las palabras de este pionero resuenan ahora en objeciones como la que hace Emily Bender, que insiste en repetir que ChatGPT no tienen nada de mágico, sino que tan solo se trata de un loro. Un loro sofisticadísimo y con muchas lecturas (”estocástico”, matiza ella), pero un loro. Esta lingüista computacional es una de las mayores críticas de los impulsores de estos programas que ya lo inundan todo. Herramientas que serán muy útiles y que revolucionarán muchas actividades, sin lugar a dudas, pero que adolecen de regulación y transparencia. Bender reclama que las compañías que impulsan estos chats dejen de hablar en primera persona, como si fueran un ser consciente: “Deben dejar de hacerla parecer humana. No debería estar hablando en primera persona: no es una persona, es una pantalla”. “Quieren crear algo que parezca más mágico de lo que es, pero en realidad es la máquina creando la ilusión de ser humana”, denuncia Bender. “Si alguien está en el negocio de vender tecnología, cuanto más mágica parezca, más fácil será venderla”, zanja. Es un truco comercial al que no podemos resistirnos. Como Geppetto, queremos que el niño de madera sea un niño de verdad.

Liberando a Skynet

Ahora, las grandes tecnológicas están liberando por todos sus servicios programas inteligentes en los que llevaban años trabajando, pero que no se habían atrevido a diseminar entre los usuarios hasta que llegó la moda, el hype, de ChatGPT. Por ejemplo, Google va a incluirla en su herramienta para empresas, Workspace, y Microsoft dentro de Office. Eso ha generado una explosión de interés y también críticas interesantes (e interesadas), como la carta abierta que firmaban el miércoles un millar de especialistas en la que pedían una moratoria de seis meses en el desarrollo de chatbots. “Los laboratorios de IA han entrado en una carrera sin control”, denuncian, “para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”. La carta la firma Elon Musk, que impulsó en su origen OpenAI —la empresa que ha creado ChatGPT— y que, tras intentar controlarla, ahora trata de zancadillear.

¿Cuál es el problema? Que los riesgos que describen Musk y los demás firmantes son futuristas y de ciencia-ficción, no los reales y acuciantes. Hablan del peligro de crear “mentes no humanas que eventualmente podrían superarnos en número, ser más astutas, obsoletas y reemplazarnos” y de que podríamos “perder el control de nuestra civilización”. Eso no va a pasar ni hoy ni mañana: no estamos en un momento en el que Skynet, la malvada inteligencia, vaya a liberar un Terminator como en la famosa película. La mayor amenaza que tenemos hoy con la inteligencia artificial es que sus capacidades están concentrando más poder, riqueza y recursos en un pequeño puñado de empresas: Google, Microsoft, Facebook, Amazon, etcétera. Precisamente, las mismas compañías que están acaparando todos los desarrollos y la investigación en ese campo, esquilmando las universidades, y dirigiendo todos los avances hacia sus intereses comerciales, como denunciaba un estudio reciente en Science. Por ejemplo: el primer firmante de esa carta, junto a Musk, es Yoshua Bengio, padre de la inteligencia artificial desde la Universidad de Montreal, que vendió su empresa de aprendizaje profundo a Microsoft y pasó a convertirse en asesor de la compañía. Ahora, Microsoft ha invertido 10.000 millones de dólares en OpenAI, para después integrar el chatbot en su buscador. Las empresas más poderosas del planeta fagocitan hoy todo un campo esencial de investigación, mientras la carta alerta de una futurible distopía en forma de Terminator.

Sin embargo, la gente desconfía. Un estudio reciente preguntó a más de 5.000 españoles por su percepción de la inteligencia artificial y dio con un resultado llamativo: el temor a esos desarrollos surge del recelo hacia los intereses económicos de quienes los promueven. Para entendernos: no se teme a Terminator, sino a Cyberdyne Systems, la empresa que en esa ficción gestaba el programa Skynet sin reparar en las consecuencias de abrir esa caja de Pandora.

Weizenbaum desarrolló Eliza con un objetivo, pero al entrar en contacto con los humanos se convirtió en una cosa distinta. Sus intenciones daban igual, porque las personas lo percibían de otro modo. Originalmente, el lema de Facebook era “muévete rápido y rompe cosas”. Cuando Mark Zuckerberg liberó Facebook entre los jóvenes universitarios, ¿para qué servía? Para recordarte el cumple de tu amigo del cole, dejarte ligotear con gente de tu entorno y permitirte compartir pensamientos con el mundo. ¿Cuál fue la capacidad emergente? Colaborar en genocidios, como ha quedado confirmado en varios puntos del planeta. ¿Por qué ocurrió algo así? Por la codicia de sus dueños, que ya conocían el impacto en la humanidad, pero también sabían que echarle el freno perjudicaba su cuenta de resultados.

Y ahora, ¿por qué no paramos de hablar de estos programas inteligentes, que llevaban desarrollando de forma opaca durante años? Porque todas estas compañías tienen prisa por hacer dinero en la nueva “carrera sin control” de los servicios de internet. Llegados a este punto, da igual lo que haga la máquina o cómo lo haga, si es un loro estocástico o listísimo. Lo que importa es quién lo impulsa, por qué y lo que ese loro nos hace a nosotros, al margen de las intenciones originales, como pasaba con Eliza. Y ahí deberíamos poner el foco con políticas que regulen los avances, exijan transparencia y limiten la concentración de ese nuevo poder.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites
_

Sobre la firma

Javier Salas
Jefe de sección de Ciencia, Tecnología y Salud y Bienestar. Cofundador de MATERIA, sección de ciencia de EL PAÍS, ejerce como periodista desde 2006. Antes, trabajó en Informativos Telecinco y el diario Público. En 2021 recibió el Premio Ortega y Gasset.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_