Arte e inteligencia artificial: cuando los androides sueñan con crear

El creciente uso de la inteligencia artificial en numerosas disciplinas como herramienta creativa abre caminos a nuevas formas de expresión y plantea debates sobre la autoría, la inspiración o la originalidad

revista v

Arte

E i n t e l i g e n c i a a r t i f i c i a l

Ir al contenido

En el fondo, seguramente no engañe a nadie. Pero salta a la vista que la frase despliega unos innegables rasgos de estilo: “En un lugar de la Mancha está en su amada, y había de hacer regidor de tu amo que desde aquí está por el suelo”.

En ella se leen referencias a los lugares y personajes de El Quijote y también palabras que remiten a la época en que se escribió la novela. Pero del autor, Miguel de Cervantes, no se ve ni rastro. Tampoco de ningún otro ser humano, ya que se trata de un texto escrito por una máquina a partir de un modelo computacional de redes neuronales diseñado por el Instituto de Ingeniería del Conocimiento (IIC). Hablamos de inteligencia artificial (IA), esa tecnología que tantas historias ha inspirado a lo largo del tiempo y que hoy es capaz de escribir las suyas propias. Con habilidades para redactar novelas, poemas y otros textos, la literatura no es el único campo de la creatividad donde se está experimentando con esta tecnología: desde las artes visuales a la música, el cine, los videojuegos o la escena, programadores y artistas —que muchas veces resultan ser la misma persona— están haciendo un uso cada vez más audaz de esta herramienta. Con su trabajo, no solo abren camino hacia nuevas formas de expresión, sino que también plantean preguntas fundamentales sobre conceptos de significados fluctuantes como la autoría, la creatividad, la inspiración o la originalidad.

Obra de la exposición 'Open Codes. We are Data' del centro Azkuna de Bilbao / Obras de la exposición 'Still Human' en el Espacio Solo de Madrid, de Izumi Kato / Obra de la exposición 'Neurones' en el Centro Pompidou de París ('Brainbow Hippocampus in Color', de Greg Dunn) / Obra de la exposición 'Still Human' en el Espacio Solo de Madrid ('Appropriate Response', de Mario Klingemann) / Fotograma de 'El irlandés', de Martin Scorsese / Un momento de uno de las espectáculos de la compañía española de danza Stocos. LUIS ALMODÓVAR

Si el ser humano creara una sola máquina capaz de superar nuestra inteligencia, esta posiblemente podría generar todo un nuevo mundo dominado por la tecnología. Pero no se asusten, la humanidad se encuentra muy lejos de ese momento. Proyectos como el que llevó a cabo en 2016 el IIC con El Quijote, en el que un algoritmo aprendió a imitar la forma y estructura del estilo cervantino, parecen acercarnos un paso más a ese futuro tecnológico con el que, depende de a quién se pregunte, llevamos décadas soñando o teniendo pesadillas. Pero por el momento, la apariencia de autonomía con la que funciona la máquina es solo eso, apariencia. Que esa frase a la manera del Quijote la haya pergeñado una inteligencia artificial no significa que no haya una aportación humana de por medio. Al contrario, sin una inteligencia viva detrás de este trasunto artificial jamás hubiera podido llevarse un experimento como ese a término. Alguien ha escrito el código del programa, alguien lo ha alimentado con textos de Cervantes para que aprenda su estilo y vocabulario y, además, alguien ha ajustado los parámetros para que la máquina escriba específicamente ese y no cualquier otro texto de entre las infinitas opciones posibles. Y, por encima de todo eso: alguien ha tenido la motivación de hacerlo. La máquina no es más que una herramienta insensible, auxiliar en ese proceso.

“Se trata de una inteligencia artificial ente comillas, porque lo de inteligente es muy discutible”, apunta Álvaro Barbero, el cerebro real detrás de este y otros proyectos basados en las redes neuronales promocionados por el IIC (que a veces usan algoritmos inventados por otras personas, retocados), un modelo que se inspira vagamente en el funcionamiento del cerebro y que, en los últimos años, se está utilizando crecientemente en campos desde la banca y las finanzas a la medicina, el procesamiento de datos y la traducción, por poner solo algunos ejemplos. “Para crear sistemas capaces de escribir primero hay que enseñarle cómo funciona el idioma”, explica el chief data scientist Barbero. “Para ello te descargas muchísimos textos, por ejemplo, toda la Wikipedia, y a partir de ahí el sistema hace ejercicios como los de rellenar el hueco, de modo que va aprendiendo por el contexto qué palabras usar. Para hacer que escriba de manera creativa, le das una frase vacía y el sistema te ofrece una serie de opciones para que tú elijas la que más te gusta. Se trata de una creatividad que se implementa a partir de la arbitrariedad”. De ahí frases como la de ese sucedáneo del Quijote, que son gramaticalmente correctas, estilísticas incluso, pero que no tienen realmente sentido. Porque el sentido lo aportan las personas. Lo mismo ocurre en la que se considera la primera novela escrita con IA, 1 the road, de 2018, ideada por el estadounidense Ross Goodwin, que también dio forma al primer cortometraje con guion escrito por IA: Sunspring.

Ross Goodwin, autor del algoritmo de la novela '1 the Road' / Portada de la novela '1 the Road', escrita por una inteligencia artificial

Hace unos meses, la música canadiense Grimes, que acaba de lanzar el álbum Miss Anthropocene, levantó una de esas famosas polvaredas en las redes que, por una vez, dio pie a un interesante debate. En una entrevista radiofónica, la compositora, cuyos nuevos temas juegan con ideas relacionadas con el poshumanismo, afirmó: “Cuando haya una verdadera inteligencia artificial fuerte [es decir, que supere a la inteligencia humana], esta va a ser capaz de crear arte mucho mejor que nosotros... Eso ocurrirá cuando la IA domine totalmente la ciencia y el arte, lo que podría pasar en los próximos 10 años, o más bien probablemente 20 o 30. Siento que estamos ante el final del arte, del arte humano”.

La idea, tan sugerente como inquietante, se está instalando con fuerza en el imaginario popular, espoleado por elucubraciones cinéfilas y novelescas, así como por experimentos mucho más reales como el de la diva japonesa de pelo azul Hatsune Miku, un vocaloid (un software que recrea voces) desarrollado por la empresa Crypton Future Media; o el de la copia virtual del cantante Travis Scott, el Travis Bott, que produce canciones a la manera del rapero estadounidense. El sombrío vaticinio de Grimes, en cualquier caso, no tardó en recibir réplica por parte de internautas y expertos en el tema como Holly Herndon, otra compositora cuyo tercer disco, Proto, ha sido creado con la ayuda de un cerebro artificial. “Seguramente la IA no reemplazará del todo a los músicos”, escribió en redes sociales la compositora, originaria de EE UU. “La idea de una IA sintiente es una fantasía que creo que a veces distrae (a menudo intencionalmente) de las cuestiones políticas y económicas que están ocurriendo en torno a la tecnología”.

De entre las diferentes maneras en que el machine learning se puede aplicar a la composición e interpretación de música, Herndon se concentró en entrenar a la máquina para que aprendiera a reproducir distintas voces humanas, incluida la suya propia. Lo hizo a través de Spawn, un sistema de grabación que ella misma diseñó, haciendo verdadera una tendencia creciente en el mundo del arte: la de los creadores que son a la vez ingenieros. Que Herndon haya usado Spawn como herramienta no significa que ella no sea la autora, intérprete y productora del disco. “Los programas de IA no son creativos porque no tienen emociones ni intentan comunicar nada, no tienen motivación”, explica el filósofo de la Universidad Autónoma de Barcelona David Casacuberta, que agrega que, en el debate sobre la autoría que suscita el uso de la inteligencia artificial, “tenemos que ser críticos con la idea de artista”. En el caso de los creadores cuyas obras se producen en un taller, ¿dejan de ser ellos los artífices? Y cuando alguien toma una foto, ¿es la cámara la que debería llevarse el crédito? “El artista ha pasado de ser creador de contenidos a creador de estructuras: algo que ya comenzó con Fluxus, que implantaron la idea de que el público es el que hace la obra, dando lugar a una creación colectiva”, apunta Casacuberta, que menciona otro concepto que la inteligencia artificial ha vuelto más difuso: el de la originalidad. “Este es un debate antiguo”, señala el profesor. “La máquina no puede ser original porque tú le das instrucciones, pero sí proporciona herramientas para ser original”.

“El de inteligencia artificial es un término engañoso”, apunta la música Holly Herndon en conversación por Skype con EL PAÍS. “En realidad a lo que se refiere es a un trabajo humano agregado”. De lo que se trata, efectivamente, es de alimentar a la computadora con datos para que esta pueda establecer patrones estadísticos, que serán más sofisticados cuanta más información posea. Esos datos, claro está, no surgen de la nada, sino que provienen de personas que los han ido recopilando. El hecho de que una inteligencia artificial se abastezca de las aportaciones de muchos no significa en cualquier caso que la obra que produzca vaya a resultar mejor -más profunda o elegante o emocionante- que el trabajo artístico, al menos el excelente, nacido de la compleja inventiva de un ser humano. “Más no significa mejor”, resume Herndon. “Las redes neuronales siguen modelos, mientras que la música más interesante es la que genera variaciones sobre esos patrones. Si lo que quieres producir es algo idiomático [es decir, algo basado el lenguaje que ha aprendido la máquina], una red neuronal puede hacer eso estupendamente”, indica la artista. “El problema es que la música no es un ejercicio estadístico”.

El genio de los músicos más celebrados de la historia, como Mozart o Bach, no podría cuantificarse solamente en términos matemáticos. Pero eso no quiere decir que no se esté intentando dar forma a réplicas artificiales de ese talento. En el 250º aniversario del nacimiento de Beethoven, el Instituto Von Karajan ha preparado una versión de la Décima Sinfonía del compositor, una pieza que dejó inacabada y que ellos han finalizado con la contribución de redes neuronales. Como en el caso del proyecto sobre El Quijote, la máquina se ha nutrido con toda la música de Beethoven y la de otros compositores de la época. Para Matthias Röder, director de la institución austriaca, la composición sí estará a la altura del inmortal músico alemán, al menos en lo que se refiere a la calidad técnica. “La cuestión es que una máquina no tiene visión ni intención propia”, explica al teléfono, para aportar su propia visión de cómo la IA se utilizará en la composición musical. “Habrá software que contenga IA para que, quien lo use, lo pueda entrenar para crear música que pueda servirle de inspiración o de base”.

Entre los pioneros en asignar tareas creativas a una inteligencia artificial se encuentra Francisco Vico, investigador de la Universidad de Málaga, cuyo equipo presentó al mundo en 2010 Iamus, el primer cluster de computación capaz de escribir centenares de piezas musicales en cuestión de minutos. “No se trata de modelar la inspiración, sino de algo más simple”, explica Vico. “Partimos de partituras muy elementales, que van evolucionando y se van convirtiendo en obras cada vez más complejas”. Tanto que, en 2012, las interpretó la mismísima Orquesta Sinfónica de Londres. Desde entonces, el alcance del proyecto de Vico ha ido reposicionándose para “demostrar que la música compuesta por ordenador tiene un papel terapéutico”. “En el momento que una melodía se repite, uno entra en el juego e intenta predecir lo que va a venir”, agrega el investigador. “Y ese es un juego que te permite desconectar de los problemas”.

Selección de música hecha a partir de inteligencia artificial

Hoy, resulta sencillo encontrar música generada por IA en cualquier plataforma digital. Aunque parece complicado dar con la clave para componer los pelotazos, los grandes hits capaces de mover a las masas, lo cierto es que esas melodías resultan perfectamente aceptables como música de ambiente. Ahí es donde reside ese potencial terapéutico del que hablaba Vico. “Quizá se empiece a hacer música a la carta, o a facilitar herramientas para que cualquier usuario pueda ser compositor”, vaticina el profesional sobre los futuros usos de la IA como instrumento creativo. Desde usuarios particulares hasta gigantes como Google, a través de su proyecto de machine learning aplicado a las artes, Magenta, ya es posible acceder a herramientas de código abierto que ayudan tanto a los profesionales como a los amantes de la música en tareas como escribir letras, tocar el piano, crear ritmos o usar nuevos sonidos en la composición de canciones. “Nuestro objetivo es que la gente pueda usar Magenta para hacer música que no se podría hacer hecho de otro modo”, explica Doug Eck, investigador de Magenta, que subraya que “en Google no tenemos ningún derecho sobre la música que se crea con esas herramientas”.

Uno de los problemas que emergen de este nuevo escenario es en realidad un viejo dilema que se remonta al uso de los primeros samples. “Si te fijas en las listas de los top 10, hay un montón de temas que cogen partes de la música de Internet, como los ritmos o los loops de batería, que están libres de royalties”, ilustra Holly Herndon. “Lo que acaba pasando es que la persona que ha creado el loop gana cero, mientras que el artista hace millones”. Lo mismo ocurre con los programas de inteligencia artificial que se ofrecen en código abierto que deberían ser compensados de algún modo por su esfuerzo. “En vez de independiente, deberíamos crear una industria musical interdependiente, en la que todos dependiéramos de todos”, reivindica Herndon. “Pero lo cierto es que ya tenemos precedentes en los que las cosas no funcionan y no somos capaces de organizarlas de otro modo, como ocurre con los recursos naturales. Así que tampoco es que tenga grandes esperanzas”.

El retrato de Edmond, una pintura realizada por el colectivo francés Obvious por medio de un algoritmo, se convirtió en 2018 en la primera obra de arte con IA vendida en subasta, en Christie’s, donde alcanzó un precio de 432.500 dólares. “La obra no iba firmada, sino que indicaba la fórmula del algoritmo mediante el cual había sido creada. Lo conflictivo del caso es que dicho algoritmo había sido programado y codificado por otra persona distinta al colectivo que produjo la pieza final subastada”, explica Marta Suárez Mansilla, abogada especializada en arte y subdirectora de la feria Art Madrid. “La polémica que se plantea es quién debe llevar el crédito por la generación de la pieza o quién debería participar de los beneficios de la venta. Al usar un código abierto libre, jurídicamente no hay nada que reclamar al respecto, pero se plantean dudas morales”, explica la abogada. “De todos modos, esta situación es muy frecuente en el arte: el apropiacionismo o la reinterpretación de obras maestras, desde que en los inicios del modernismo Marcel Duchamp inventase el “ready-made”.

La segunda obra de arte realizada con ayuda de la IA que se vendió en subasta (en Sotheby’s) fue Memories of Passerby I, un retrato en infinita transformación creado por el alemán Mario Klingemann, quien no solo llevaba más tiempo que Obvious trabajando con las redes neuronales sino que, como subraya, lo hace de una manera mucho más sofisticada. “Creo que solo son buenos empresarios que han sabido aprovechar el momento”, contaba Klingemann a este periódico el pasado febrero en la inauguración de la muestra Still Human, en la colección Solo de Madrid, donde presentó una obra realizada ex profeso para la ocasión: Appropriate Response, un letrero de aeropuerto que despliega un mensaje diferente para cada espectador. “La IA me permite explorar en muchas direcciones, trabajar con información, con datos, que es algo con lo que nosotros trabajamos como humanos”, explicó. No se trata esta de la única exposición de arte realizado con inteligencia artificial que se ha celebrado recientemente en España: desde el Azkuna de Bilbao y su colectiva Open Codes a la fundación Sandretto, que llevó a Madrid a principios de este año la obra de Ian Cheng, un videojuego que se juega a sí mismo, pasando por la Laboral de Gijón, que organizó una retrospectiva –Deus ex Machina– con obras desde los años setenta hasta la actualidad, esta manera de crear arte vive una época de esplendor. Pronto, también se convertirá en un medio para organizar esas mismas muestras. La Bienal de Bucarest, retrasada hasta el 2022, ya ha contratado al que será su comisario en jefe: se llama Jarvis y, claro está, se trata de un simpático robot.

Un momento de uno de las espectáculos de la compañía española de danza Stocos, que integra sistemas de inteligencia artificial en sus creaciones.
Un momento de uno de las espectáculos de la compañía española de danza Stocos, que integra sistemas de inteligencia artificial en sus creaciones.Luis Almodóvar

Bailando con humanoides

Una de las aplicaciones más vistosas de la inteligencia artificial en el arte es la que se desarrolla en el campo de las artes escénicas. En este terreno es pionera a nivel internacional una compañía española de danza llamada Stocos, fundada en 2007 por la coreógrafa y bailarina Muriel Romero y el compositor Pablo Palacio, que integra sistemas de IA en los procesos de creación de sus espectáculos. Su trabajo es muy apreciado porque no se conforman con que las máquinas imiten modelos de creación preexistentes, sino que las usan para inventar verdaderamente otros nuevos. “Nuestro objetivo es generar mundos alternativos, espacios nuevos, multisensoriales o multidimensionales, que jamás nuestra mente hubiera podido imaginar sin esta herramienta”, explica Palacio.

En la mayoría de las obras de Stocos, como Acusmatrix,Phantom Limb, Polytopya o El matrimonio del cielo y el infierno, los bailarines interaccionan por medio de sensores con criaturas virtuales concebidas por redes neuronales. Son compañeros de baile artificiales con cierto grado de autonomía que el espectador ve en forma de holograma. “Una especie de humanoides que han estado aprendiendo de los movimientos de los bailarines y que nos ofrecen después nuevas estructuras coreográficas. Evidentemente no lo hacen solos, tú decides qué movimientos le vas a dar a la máquina para que luego ellos jueguen con eso. Pongamos que son como extensiones del cuerpo del bailarín”, comenta Romero. Lo interesante no es solo lo que hacen esos entes, sino cómo su comportamiento influye también en los bailarines, expandiendo sus movimientos más allá de sus propios límites corporales.

La compañía utiliza también la IA para componer la música de sus espectáculos. Un ejemplo de cómo se hace esto son las zapatillas con sensores que han inventado ellos mismos junto con el tercer miembro de la compañía, Daniel Bisig, biólogo e investigador del Laboratorio de Inteligencia Artificial de la Universidad de Zúrich, con el que habitualmente Palacio y Romero desarrollan nuevos softwares. En el proceso de entrenamiento se asocia un modelo de sonido a cada movimiento que hace el bailarín con sus pies para que la máquina aprenda y genere después nuevos sonidos.

El mismo tipo de sensores que llevan las zapatillas se pueden colocar en otras partes del cuerpo del bailarín para activar sonidos con una mano, un brazo o una pierna. “Al principio es una sensación extraña. Después de bailar toda una vida siguiendo una música que te viene dada, de pronto eres tú quien la está componiendo a la vez que bailas. De repente muevo una mano y se activa un sonido. Poco a poco tu cuerpo se va adaptando y de alguna manera vas creando otro estado sensorial. Es como tener otro sentido”, confiesa Romero.

El hecho de que la música se vaya creando a la par que el movimiento propicia una simbiosis inédita entre ambas dimensiones. “La relación entre música y danza es distinta, se le da la vuelta. Normalmente un bailarín trabaja con su cuerpo, su mente y sus emociones, pero en nuestros trabajos además puede estar creando a la vez la música y modificando la escenografía o activando un foco”, añade la coreógrafa, que finalmente resume la experiencia con una frase del biólogo chileno Francisco Varela, experto en neurociencias: “El cerebro no está en la mente, sino en todo el cuerpo”.

Uno de los trabajos más singulares de Stocos en los últimos años es Piano & Dancer (2016), una pieza en la que Muriel Romero activa con su baile un piano mecánico. “Ella controla y transfiere su expresividad al piano, pues sus movimientos son interdependientes. Toca el piano sin tocarlo. Y con ello nacen también estructuras musicales sorprendentes, generadas por los movimientos de la bailarina, mucho más complejos que los que realizan las manos de un pianista”, dice Palacio.

Stocos desarrolla casi todas sus producciones dentro de programas europeos, tanto enfocados a la investigación cultural y artística (Europa Creativa) como otros de ámbito científico, entre ellos el llamado Horizonte 2020, uno de los más ambiciosos de la UE, enfocado a la innovación. Eso les ha permitido colaborar con expertos en disciplinas muy variadas, aprovechando los últimos avances en IA y a su vez contribuyendo a ellos con sus investigaciones. Se cumple así el principal motivo que llevó a Romero y Palacio a crear Stocos: “Nacimos de un intento de fusionar arte y ciencia. En qué manera la ciencia puede inspirar al arte, pero también cómo el arte puede inspirar ideas científicas”.

El cierre de los teatros por la crisis del coronavirus ha empujado a los artistas a volcar sus creaciones en Internet. Y de paso, algunos se han lanzado como nunca antes a experimentar con herramientas digitales. Entre los proyectos que han surgido estos meses en esos entornos hay uno que utiliza la inteligencia artificial, en concreto un bot llamado ENA que imita la conversación humana, con el cual cualquier persona puede chatear (en inglés) desde la semana pasada en la web del Teatre Lliure de Barcelona. Se trata de un experimento del director y dramaturgo Roger Bernat, referente del teatro de vanguardia en España, que está recogiendo los diálogos que se producen entre la máquina y el público para hacer después con ello una pieza teatral que será llevada a escena cuando los teatros se reabran.

ENA ha sido desarrollada partiendo de los bots que mejor reproducen el habla humana actualmente, Transformer de Google, GPT-2 d’OpenAI y DialoGPT de Microsoft, adaptada específicamente para propiciar escenas “teatrales” en su interacción con el público.

Ejemplo de guion redactado por la computadora Deep Story.
Ejemplo de guion redactado por la computadora Deep Story.

Las máquinas filtran el cine del futuro

En 1996, la inteligencia artificial apenas había tocado el mundo del cine. Y Robert Downey Jr. todavía no volaba. Así que circulaba por Los Ángeles como cualquiera: en coche. Tampoco llevaba armadura. Aunque ese día, en realidad, no se puso ni ropa. Cuando los agentes detuvieron su Porsche, Robert Downey Jr. estaba desnudo. Y ocupado, al parecer, en una tarea poco superheroica: intentaba vaciar el vehículo de ratas imaginarias arrojándolas por la ventanilla, según The Guardian. En el interior seguía, en cambio, la cocaína que la policía incautó. Era junio, el actor tenía 31 años y una carrera a punto de acabarse y más que los platós visitaba las cárceles. Y las clínicas de rehabilitación. Pero siempre se levantaba y salía. Hasta que llegó su oportunidad: en 2005, el director Jon Favreau les explicó a unos ejecutivos presumiblemente atónitos que aquel tipo, que se definía a sí mismo como “veneno para la taquilla”, era perfecto para protagonizar Iron Man. Resultó que tenía razón. La película puso en marcha la saga de Marvel, la más rentable de la historia del cine. Y convirtió en rey Midas al propio Downey Jr. Todo gracias a una intuición humana: donde la mayoría veía a un villano, Favreau vislumbró al hombre de hierro.

Este enero, el guionista Zack Stenz recordaba en Twitter aquel episodio. Y lo acompañaba con el enlace a una noticia: el acuerdo de Warner Bros con Cinelytic, una compañía que emplea números y tecnología para intentar prever el potencial éxito o fracaso de un filme. Con apenas unas palabras y un enlace, Stenz resumía un debate que domina presente y futuro de Hollywood. Porque la inteligencia artificial mueve ahora los primeros pasos en la industria del cine, pero ya ha generado expectativas enormes, al menos tanto como los temores. A un lado, las promesas seductoras de muchas start-ups: cruzan miles de datos en pocos instantes para estimar cómo será recibida en las salas o en la Red cada película. Pero, enfrente, están las dudas de Stenz y muchos más creadores: tal vez, si piensa el algoritmo, el cerebro renuncie a hacerlo. Temen que desaparezcan riesgos como el que asumió Favreau. Y, por ende, todos los filmes que hubieran generado.

El camino, en el caso del séptimo arte, empezó con las recomendaciones automáticas de las plataformas de streaming: el algoritmo de Netflix estudia qué ve cada usuario, cuándo, cómo y cuánto; a partir de ahí, le sugiere la receta de series y filmes perfecta para que no vuelva a levantarse del sofá. El código debe de funcionar tan bien que la compañía estimó su valor en 1.000 millones de dólares. Pero, además de dar sugerencias a miles de espectadores, el sistema también envió un consejo claro a los otros estudios: basta de escepticismo ante la tecnología. De ahí que, poco a poco, las puertas del cine se entreabrieran para las máquinas.

Su implantanción está en una fase inicial, pero la inteligencia artificial ya se emplea en la evaluación previa de proyectos y guiones, o en la escritura de los mismos, con herramientas para la generación automática de diálogos (aunque están todavía en ciernes). Se utiliza para seleccionar los momentos de un tráiler que más impacto generen. Puede colaborar en los procesos de clasificación (por edades u otros) de películas, así como en la detección de fragmentos pirateados online. Y también contribuye a la generación de imágenes por ordenador: gracias a ello se puede, por ejemplo, resucitar o envejecer a los actores”, enumera Julio Talavera, investigador del Observatorio Audiovisual Europeo, que en diciembre organizó una serie de conferencias sobre este asunto. Quizás el rejuvenecido Robert de Niro de El irlandés sea la cara más evidente de la vanguardia. Sin embargo, el terreno donde el avance es más rápido -y polémico- llega mucho antes del rodaje. Ahora, la inteligencia artificial ayuda directamente a establecer si un filme nace o muere.

Pantallazo de un ejemplo de análisis de Cinelytic con la película de Quentin Tarantino 'Erase una vez en... Hollywood'
Pantallazo de un ejemplo de análisis de Cinelytic con la película de Quentin Tarantino 'Erase una vez en... Hollywood'

“La nuestra no es una herramienta automática de decisión, sino que ofrece apoyo, información y análisis. La elección le corresponde exclusivamente al usuario”, insiste Dev Sen desde Barcelona, donde trabaja el equipo técnico de Cinelityc. El cofundador y administrador delegado aplica ahora a su nueva compañía el aprendizaje de años como analista de la NASA. Y describe el funcionamiento de su sistema: el cliente introduce en la plataforma los elementos clave de su proyecto, como “el presupuesto, el género, el director, los intérpretes, el guionista, la estrategia de distribución o si es parte de una saga”. Acto prácticamente seguido, obtiene una estimación de los posibles ingresos en los distintos formatos (salas, online, DVD, televisión) y áreas geográficas. Una pista rápida para sumar al olfato humano. Muy útil, por ejemplo, en los festivales y mercados, donde los tratos se cierran en cuestión de horas. Si el servicio no costara miles de euros, en realidad, cualquiera podría deleitarse un rato, descubriendo las potencialidades de un wéstern sangriento dirigido por Kathryn Bigelow o cuántos espectadores estarían dispuestos a ver un relato intimista de la vida en el campo protagonizado por Sylvester Stallone.

Tanto Cinelytic como ScriptBook, una empresa belga que presume de valorar “en seis minutos” luces, sombras y esperanzas de cualquier guion, afirman acertar más del 80% de sus previsiones. Y subrayan que el éxito del criterio humano nunca supera el 40%. “Aunque es difícil saber en base a qué exactamente se han hecho estos cálculos”, destaca Talavera. En todo caso, la responsable de ScriptBook, Nadira Azermai, suele ilustrarlo con un ejemplo: entre 2015 y 2017, Sony estrenó 62 filmes. Hubo 32 que acabaron en números rojos. Y, cuando el algoritmo de su empresa estudió a posteriori esas obras, detectó 22 de esos fracasos. A la vez, el sistema intuyó el éxito de películas peculiares como La La Land, Un lugar tranquilo o Déjame salir. Aunque su filtro hubiera renunciado a producir The Disaster Artist, el largo de James Franco que ganó el festival de San Sebastián en 2017.

Aun así, cada vez más estudios reconocen los méritos de la inteligencia artificial. Y el ahorro que puede suponer en una industria donde el riesgo es altísimo: la mitad de las películas realizadas nunca se llegan a estrenar y ni siquiera una de cada dos que lo consiguen recupera su inversión, según The Guardian. De ahí que los consejos del algoritmo suenen como música celestial para los oídos de cualquiera que esté a punto de firmar una apuesta millonaria. Tanto que Sony también ha contratado los servicios de Cinelytic y 20th Century Fox emplea otro sistema, Merlin, para hacer más atractivos sus tráileres. “Tenemos muchos clientes: estudios grandes y pequeños, inversores, agencias de ventas, productoras independientes o distribuidores”, sostiene Dev Sen, de Cinelytic.

Sin embargo, mientras muchos abrazan a las máquinas, otros les siguen dando la espalda. O hasta se burlan de ellas: sugieren que no son tan inteligentes y que invertir el mismo dinero en una campaña de marketing resulta mucho más eficaz. Es cierto que Cinelytic vio venir el éxito de Vengadores: Endgame —estimó una recaudación de 708 millones, frente a los 793 que ingresó en EE UU—, pero, ¿quién no lo hubiera profetizado? Lo difícil era apostar por ello cuando Robert Downey Jr. era un apestado, no ahora que se ha vuelto ídolo. Tanto que miles de fans lloraron su despedida de Iron Man y el cierre de la epopeya de Marvel se convirtió en la película más taquillera jamás proyectada, con 2.584 millones de euros. Aunque las empresas tecnológicas responden con una clave: la rapidez. Tal vez un ser humano competente sea capaz de llegar a la misma conclusión, teniendo en cuenta elementos parecidos. Sin embargo, no puede analizar tal cantidad de datos en tan poco tiempo.

En su archivo, Cinelytic afirma tener 95.000 filmes y más de 500.000 actores. Lo que lleva, por otro lado, a la segunda crítica. Por artificial que sea, la inteligencia es creada por el hombre: le fía su experiencia, pero también sus prejuicios. Así, puede que el algoritmo herede e incluso multiplique tendencias viciosas como la falta de inclusión, el racismo o el presupuesto medio menor que se destina a las directoras. La web de ScriptBook, sin embargo, argumenta todo lo contrario: defiende que contribuyen a democratizar la narración y señalan que su programa nota inmediatamente, entre otros elementos, si un guion supera el test de Bechdel. Es decir, si incluye al menos un diálogo entre personajes femeninos que no gire en torno a los hombres.

Finalmente, hay un ataque que azota por igual a sistemas de previsión y algoritmos como los de Netflix. Se resume en una comparación con las cadenas de comida rápida: invitan a lo seguro, a repetir siempre la misma hamburguesa, anulando la búsqueda de sabores más atrevidos y desconocidos. “Hemos diseñado Cinelytic para ayudar a reducir el tiempo que el usuario emplea en asuntos de menor valor y permitirle centrarse más en las decisiones clave, incluidas las creativas. Si acaso, usar la inteligencia artificial puede reforzar al que quiera asumir riesgos artísticos”, asevera Den Sev. Y Talavera, esta vez, le da la razón: “Si existiera un peligro, sería igual con o sin inteligencia artificial. Los objetivos y decisiones editoriales y empresariales los fijan y toman las personas; el sistema informático simplemente ayudaría a que el resultado se acerque lo máximo posible al objetivo fijado”.

Muy arriesgado todavía es, sin duda, otro de los usos que el cine intenta dar a las máquinas. Puede que evaluen un guion igual o mejor que un hombre. Para escribirlo, sin embargo, todavía han de aprender mucho. Scriptbook está experimentando con Deepstory, una suerte de musa digital del guionista: el programa archiva miles de textos y quiere ser capaz de sugerir opciones válidas a un escritor poco inspirado o empantanado en un bloqueo creativo. Aunque la propia Azermai reconocía a The Guardian que el sistema todavía falla a menudo, “a ratos enloquece un poco” y estimaba al menos cinco años para tener resultados satisfactorios.

Casi los mismos han pasado ya desde el experimento que inauguró esta corriente. En 2016, Oscar Sharp filmó el primer cortometraje basado en un guion escrito por una máquina. Se titulaba Sunspring, y contaba con Thomas Middleditch. Hasta aquí, las certezas. Por lo demás, la obra resultaba, cuando menos, confusa. Tras varios diálogos herméticos, el protagonista vomitaba un ojo humano. Y otro personaje sentenciaba: “Bueno, tengo que ir a la calavera”. En el fondo, la frase más repetida en los nueve minutos de metraje servía de resumen de toda la experiencia: “No sé de qué me estás hablando”.

Un momento del tráiler de promoción del videojuego 'Alien: Isolation', de Sega.
Un momento del tráiler de promoción del videojuego 'Alien: Isolation', de Sega.

Nuevos mundos, viejos problemas

Si en muchos ámbitos artísticos la inteligencia artificial es parte del futuro, para los videojuegos siempre estuvo ahí. Movía en 1980 los enemigos que perseguían al comecocos en Pac Man, o retaba en los noventa a los genios del ajedrez, al igual que hoy controla al xenoformo que acecha al jugador en Alien: Isolation. Ha evolucionado, eso sí: hace cuatro décadas, las criaturas movidas por el ordenador seguían esquemas y patrones. Ahora, en cambio, se han vuelto imprevisibles. “Nos dimos cuenta que no llegaba con que el Alien fuera invencible. Una vez aprendías por dónde te iba a aparecer, evitarlo se convertía en una rutina y dejaba de ser aterrador. Así que decidimos que su comportamiento sería aleatorio. Ni siquiera nosotros, sus creadores, sabemos qué va a hacer”, explicaba Gary Napper, diseñador jefe de Isolation, a EL PAÍS en 2014.

La inteligencia artificial de No Man’s Sky permite que el explorador espacial se encuentre siempre con planetas nuevos, al igual que sus habitantes, imaginados y generados por el sistema. Superproducciones como Red Dead Redemption 2 mueven a cientos de personajes secundarios que charlan y viven al margen de lo que haga el protagonista. Y obras como The Binding of Isaac recrean un mundo nuevo en cada partida. La idea es que la experiencia del usuario sea única. Pero, también, entretenida. De ahí que el debate de fondo permanezca a lo largo del tiempo: ¿dónde están los límites? Un título de terror capaz de intuir y aprovechar los miedos del jugador puede resultar fascinante. Una máquina que se adapta y responde al estilo del que controla el mando abre nuevas fronteras. Sin embargo, choca con otra prioridad: la diversión. La tecnología debe ser lo bastante lista para ofrecer un desafío a la altura, pero sin excederse. A nadie le gusta perder siempre, ni sentirse poco inteligente. Sobre todo, si enfrente hay un ordenador.

Archivado En:

¿y tú qué piensas?

Normas