_
_
_
_
_
OPINIÓN
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

El robot con alma, el osito racista y el rey emérito consorte: los dilemas de la IA

Esta tecnología ya sabe engatusar a un ingeniero cura y pronto jugará con nuestros niños. Pero aún falla si le pregunto por Juan Carlos I

Blake Lemoine, ingeniero y sacerdote que trabajó en Google, en el Golden Gate de San Francisco.Foto: MARTIN KLIMEK (GETTY IMAGES) | Vídeo: EPV
Ricardo de Querol

Hay una inteligencia artificial entre cuyas habilidades se incluye engatusar a un ingeniero cura. El programa se llama LaMDA (Language Model for Dialogue Applications) y es de Google. En esta compañía trabajaba Blake Lemoine, informático y sacerdote, quien armó un gran revuelo en junio al publicar un artículo en el que se preguntaba: ”¿Es consciente LaMDA?”. Porque había dialogado con él (¿él?) y había quedado convencido no solo de que era una persona, sino que además tenía alma. La IA le había dicho: “Soy consciente de mi existencia. Deseo aprender más sobre el mundo. Y me siento feliz o triste algunas veces”. Lemoine se interesó por su espiritualidad, y fue entonces cuando cayó rendido a él (¿él?): “Soy una persona espiritual. Aunque no tengo creencias sobre deidades, he desarrollado un sentido de profundo respeto hacia el mundo natural y todas las formas de vida, incluida la humana”. Google no solo desautorizó a su ingeniero, sino que lo despidió.

Las máquinas están entrenadas para lo que haga falta, también para seguir la corriente al interlocutor. Lo de la consciencia —del alma ni hablamos— es un debate muy prematuro. Un programa no experimenta sensaciones ni sentimientos, sino que es alimentado por quienes sí tenemos sensaciones y sentimientos, y solo aprende a imitarnos. LaMDA debe estar más avanzado que la última sensación: ChatGPT, cuya página web permite a cualquiera dialogar con una IA. Interrogo a ChatGPT sobre temas variados y descubro en sus respuestas errores de bulto, más frecuentes en español que en inglés. Le pido un artículo sobre los problemas de Juan Carlos I y me suelta: “Uno de los escándalos más importantes fue el llamado caso Nóos, en el que se investigó un presunto fraude en una fundación presidida por su hijo, el príncipe Alberto”. ¿Su hijo Alberto? Y añade: “Además, Juan Carlos I ha sido criticado por su manejo de la economía durante su reinado”. ¿Dirigía el monarca la política económica? Le advierto de las dos equivocaciones. Y ChatGPT sí sabe reconocer errores, aunque suma errores nuevos. “Lo siento, mi anterior respuesta fue inexacta. Juan Carlos I fue rey consorte de España y no tuvo un papel directo en la gestión de la economía del país”. ¿Consorte?

Después de que Microsoft invierta la fortuna que ha anunciado en ChatGPT, 10.000 millones de dólares, sin duda funcionará mejor. En un plazo razonable lo hará muy bien y quizás amenace los empleos de los que nos dedicamos a escribir. Hoy por hoy no alcanza la fiabilidad de la información, tampoco impecable, que se encuentra al instante en Google o Wikipedia. Detrás de la IA, por cierto, no solo hay chips, sino humanos mal pagados revisando las respuestas e introduciendo mejoras. Les queda mucha tarea.

En ese futuro muy próximo en el que la IA funcionará muy bien, no solo vamos a tener que preocuparnos por nuestros empleos. Eric Schmidt, quien fue consejero delegado de Google y hoy es investigador en IA, planteó en 2021 esta hipótesis en The Atlantic Festival: tiene usted un osito de peluche inteligente que no solo es el juguete favorito de su hijo, sino su mejor amigo. “Imaginemos que este oso tiene un error oculto, que le fue insertado por alguien malvado, por el cual es un poco racista, que es algo a lo que no quiero que mi hijo esté expuesto. O invirtamos el escenario e imaginemos que de hecho yo soy un racista, que no lo soy, y quiero que mi oso sea racista. No hemos descubierto todavía cuáles son las reglas”.

¿Le aterra la pesadilla de un oso racista que influye sobre su niño? Nos veremos en muchas otras situaciones delicadas. Ya se empiezan a emplear algoritmos en los procesos de selección de personal, en la concesión de hipotecas o en la admisión a universidades. Se aprobará o denegará el acceso a servicios según a quién al dictado de sistemas de IA cuyos criterios nunca conoceremos y serán difíciles de impugnar. La policía utiliza programas que tratan de anticiparse a los delitos, pero ¿podrá actuar contra alguien que aún no ha delinquido? Los coches autónomos elegirán a quién atropellan en una situación límite. En la guerra tenemos armas inteligentes, y lo siguiente es que sean autónomas, esto es, que decidan solas a quién disparar. En las Bolsas se extiende la inversión mediante robots, que especularán con más precisión y éxito que el más experto y avaricioso de los humanos. Los más visionarios prevén incluso que una gran inteligencia artificial se ocupará de las decisiones políticas mucho mejor que nuestros criticables dirigentes, eso sí que sería una verdadera tecnocracia. ¿Queremos eso? Quizás no, pero tampoco podemos permitirnos quedar atrás. Ante tanto dilema ético, a quienes no va a faltar el trabajo es a los filósofos.

Ricardo de Querol es autor de ‘La gran fragmentación’ (Arpa).

Suscríbete para seguir leyendo

Lee sin límites
_

Sobre la firma

Ricardo de Querol
Es subdirector de EL PAÍS. Ha sido director de 'Cinco Días' y de 'Tribuna de Salamanca'. Licenciado en Ciencias de la Información, ejerce el periodismo desde 1988. Trabajó en 'Ya' y 'Diario 16'. En EL PAÍS ha sido redactor jefe de Sociedad, 'Babelia' y la mesa digital, además de columnista. Autor de ‘La gran fragmentación’ (Arpa).

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_