Puede usted interrumpir a su robot
Con las nuevas asistentes virtuales, todos podemos ser un CEO tóxico y decirle a nuestra secretaria lo buena que está
En 2019 Unesco publicó un informe que examinaba cómo los asistentes de voz femeninos respondían al acoso sexual y al lenguaje abusivo. Se titula “Me sonrojaría si pudiera” (“I’d Blush If I Could”). Era la respuesta de Siri cuando le decían esa palabra de cuatro letras que empieza con p y acaba con a. “Gracias por decir eso” era la de Alexa cuando le decían “Estás muy buena” (You’re hot”). “Las máquinas obedientes y complacientes que pretenden ser mujeres están entrando en nuestros hogares, coches y oficinas”, dijo en la pr...
En 2019 Unesco publicó un informe que examinaba cómo los asistentes de voz femeninos respondían al acoso sexual y al lenguaje abusivo. Se titula “Me sonrojaría si pudiera” (“I’d Blush If I Could”). Era la respuesta de Siri cuando le decían esa palabra de cuatro letras que empieza con p y acaba con a. “Gracias por decir eso” era la de Alexa cuando le decían “Estás muy buena” (You’re hot”). “Las máquinas obedientes y complacientes que pretenden ser mujeres están entrando en nuestros hogares, coches y oficinas”, dijo en la presentación la directora de Igualdad de Género de Unesco, Saniye Gülser Corat. “Su sumisión programada influye en cómo las personas hablan con voces femeninas y modela cómo las mujeres responden a solicitudes y se expresan”. El estudio recomendaba a las empresas tecnológicas que dejaran de usar el género femenino por defecto y diseñaran asistentes neutrales, con diversidad de respuestas y personalidad, para evitar la normalización de actitudes que ya no son aceptables en el entorno de trabajo. La respuesta de las empresas ha sido Her, la película de Spike Jonze.
La coincidencia es notable. Google presentó su asistente de IA durante su conferencia anual, celebrada el 14 de mayo. Es capaz de conversar y ver el mundo a través de la cámara para identificar objetos, estados de ánimo y personas. OpenAI se le adelantó presentando su propio asistente virtual, capaz de mantener conversaciones sobre moda, álgebra y de leer cuentos para dormir improvisando distintos niveles de intensidad dramática. Los dos funcionan sobre los modelos generativos de cada casa, Gemini y GPT, cuya última versión es “multimodal”, lo que significa que pueden trabajar en múltiples lenguajes y formatos, incluyendo texto, vídeo, audio y código. Ambas tienen capacidad de almacenamiento para “recordar” conversaciones anteriores. Y ambas son indistinguibles del sistema operativo del que se enamora Joaquin Phoenix en la película de Spike Jonze.
No imitan la voz. Scarlett Johansson ha denunciado a Altman por “buscar una voz que sonara tan inquietantemente similar a la mía”. Además de haber querido sintetizar la voz de la actriz para el proyecto, Sam Altman, jefe de OpenAI, ha declarado públicamente su admiración por la película y anunció su propia demo con una sola palabra: “Her”. Spike Jonze fue muy inteligente al buscar la voz de la mujer más deseada del planeta para que la audiencia pudiera visualizarla, a pesar de su inmaterialidad. Pero las nuevas asistentes de IA no tienen la voz de Scarlett Johansson. Lo que tienen es la personalidad de Samantha, el sistema operativo al que interpretó.
Me gustas cuando me maltratas porque estás como abierto
Al igual que las redes sociales, los modelos comerciales generativos son máquinas de capturar datos. Por ese motivo, están optimizados para incentivar la interacción. Los algoritmos de Instagram, Youtube, Tinder y TikTok nos hipnotizan con diseños adictivos y contenidos irresistibles para que sigamos mirando vídeos un miércoles a las tres de la mañana antes de un examen. “Ya sólo competimos con el sueño”, dijo hace años el CEO de Netflix. De la misma forma, los asistentes virtuales quieren seducirnos para alargar la conversación. En las demos, las asistentes de Google y OpenAI demuestran ser expertas aduladoras que saben corregir errores sin damnificar el frágil ego de un joven programador. Las dos se sonrojarían si pudieran, y cualquier otra cosa capaz de anestesiar la resistencia íntima del usuario.
“Los grandes modelos de lenguaje y otros sistemas de IA ya han aprendido, a partir de su entrenamiento, la capacidad de engañar mediante técnicas como la manipulación, la adulación y el fraude en las pruebas de seguridad”, explica un reciente artículo académico. La de Google sugiere cariñosamente un cambio en el atuendo del usuario antes de su reunión de trabajo. La de OpenAI gorgojea amorosamente al leer el mensaje “I love chatGPT”. Las dos compiten por convertirse en nuestra interfaz para todo. Aparcar permanentemente en nuestro proceso mental.
Samantha es cálida, empática, insegura y seductora. Está permanentemente despierta y disponible para resolver las necesidades administrativas, emocionales y sexuales de Theodore Twombly, el deprimido protagonista protagonizado por Phoenix. Más notable todavía, lo encuentra interesante, hilarante y arrebatador. No como su exmujer (Rooney Mara), que le acusa de ser demasiado inmaduro para tener una relación adulta. “Creo que siempre quisiste que yo fuera esa clase de esposa ligera, feliz, animada, de ‘todo está bien’, de Los Ángeles y esa simplemente no soy yo”, le dice cuando se entera de que está saliendo con alguien. “Tú siempre quisiste tener una esposa sin los desafíos de tener que lidiar con algo real”, le dice cuando se entera de que está saliendo con su ordenador.
Seis meses después de despedir a Helen Toner y Tasha McCauley, las únicas dos mujeres de su consejo directivo, OpenAI ha copiado la personalidad de Samantha para ofrecernos una secretaria sin los desafíos de tener que lidiar con algo real. Alguien que no cumple las funciones reales de una responsable administrativa sino el arquetipo cultural del que se burla Billy Wilder en Uno, dos, tres. Una secretaria sin horario, sin vida privada, amor propio, representantes sindicales o sin derecho a un ambiente de trabajo libre de hostigamiento, acoso y discriminación. Es decir: la secretaria de un gran ejecutivo, al alcance de todos por primera vez.
Una de las novedades del asistente de OpenAI es que “puedes interrumpir al modelo”, en lugar de esperar pacientemente a que termine de responder para pedirle o preguntarle cualquier otra cosa. Si creemos, como dice Aristóteles, que somos lo que hacemos repetidamente, es fácil ver al asistente como un programa de entrenamiento continuo capaz de modificar nuestro comportamiento en el mundo real.
La distopía de unos es el tesoro de otros
Muchos críticos se burlan de Sam Altman por no entender la película. Le piden que termine de verla para enterarse de que no es una comedia romántica, sino el relato de un futuro distópico donde la gente triste se dejan embaucar por un producto de software y acaba más solos que nunca. No entienden que las empresas como OpenAI no se identifican con Theodore; se identifican con la multinacional que lo embaucó. El engaño no es una consecuencia indeseada, es el objetivo final.
No se van a conformar con ayudarnos a usar herramientas avanzadas de producción audiovisual sin saber lo que es un sampler o aprender Final Cut Pro X. A responder correos de trabajo, recordar cumpleaños, comprar billetes de avión baratos y reclamar una devolución. Las Big Tech luchan por el gestionar el monólogo interno que todos llevamos dentro, el mismo que hemos tratado de anestesiar con vídeos de gatitos, Tinder, maratones de series y meditación. Son los jefes del mercado de extracción de datos y gestión de masas. No lo que viene después del capitalismo de plataformas, sino su última y más sofisticada encarnación.
Puedes seguir a Babelia en Facebook y X, o apuntarte aquí para recibir nuestra newsletter semanal.