Cómo el algoritmo ha arruinado tu bar favorito: ¿estamos condenados a que todo se parezca a todo?
La pregunta del huevo y la gallina se vuelve cada vez más habitual con la estética, la música y las tendencias que se contagian desde las redes sociales: los creadores reproducen hoy sesgos algorítmicos que, a su vez, fueron alimentados por otros creadores antes
En los años ochenta el futurólogo Hans Moravec avisó de que, paradójicamente, serían las acciones que resultan más sencillas para los humanos (como sostener una pieza de sushi con dos palillos) las que más dificultades plantearían a robots y ordenadores. Del otro lado, tareas muy complejas como encontrar errores en la prescripción de medicamentos, distinguir cuándo un telescopio espacial ha detectado algo interesante o elegir los regalos de navidad para toda la familia han terminado por resultar enormemente sencillas para los algoritmos.
“Eso ya lo hace la inteligencia artificial”, argumentamos cada vez más a menudo. Pero según la opinión de miles de científicos y filósofos, la etiqueta no es del todo apropiada. “Ambas palabras (artificial e inteligente) son controvertidas y resultan muy sospechosas. Prefiero el término aprendizaje automático, es más fácil ver de qué estamos hablando: sistemas que permiten a las máquinas aprender patrones o correlaciones y aplicarlos a nuevas situaciones y datos”, explica Justin Joque, profesor en la Universidad de Michigan y autor de Matemáticas Revolucionarias (Verso Libros, 2024).
“Es razonable que exista cierta confusión entre el gran público porque son conceptos difíciles de entender para quien no tiene formación matemática. Hay mucho misticismo alrededor de la IA como existe en cualquier otro campo científico: estudios sobre cáncer, observatorios astronómicos cuando se habla de OVNIS… Son cuestiones interesantes y sobre las que se divulga mucho, así que siempre hay quien genera morbo”, explica Celsa Pardo-Araujo, matemática en el Instituto de Ciencias del Espacio cuyas investigaciones se centran en la aplicación de machine learning a la astrofísica, que añade: “Lo que también está claro es que Google, DeepMind o Microsoft están haciendo unos algoritmos que solucionan problemas que antes no se podían solucionar”.
Pero aquí llega la parte que nos afecta: además de resolver ciertos problemas y ser muy útiles en investigación científica, los algoritmos también están generando contenido y, sobre todo, ordenando y jerarquizando todo el que hemos creado nosotros. Y ahí cabe tanto el enorme conjunto de la cultura universal como la última foto que hemos hecho mientras desayunábamos. ¿Qué criterios usan? ¿Cómo son esas creaciones? Eso es lo más preocupante porque, tal y como demuestra Kyle Chayka en su ensayo Mundofiltro, el mapa (es decir, el algoritmo que premia unos contenidos sobre otros) ya está afectando al territorio (es decir, a la forma de los propios contenidos y a la realidad por la que nos movemos, especialmente en las ciudades).
Chayka pone el ejemplo de las cafeterías que quieren parecer sofisticadas: si todas ofrecen los mismos productos y su decoración es tan similar, si el público que las visita se parece tanto en todo el mundo, es porque sus encargados están siguiendo el modelo que impone Instagram cuando da prioridad a unas imágenes sobre otras. Instagram atrae público solo a los locales que suben fotos que encajan en su algoritmo, y esto es algo que está ocurriendo en todos los ámbitos: ya hay músicos que enseñan a componer canciones para que se hagan virales en TikTok (por ejemplo, con el estribillo muy cerca del comienzo) y muchos ilustradores imitan el estilo Pixar independientemente de que les estimule (también es usado por muchos generadores automáticos de imágenes) porque han comprobado que eso les ayuda a hacerse virales.
Un mundo cada vez más parecido a sí mismo
Mediante una investigación empírica llevada a cabo en Francia durante los años sesenta del s. XX, el sociólogo Pierre Bourdieu estudió las “bases sociales del gusto” y descubrió decenas de correlaciones entre cuestiones como el nivel de estudios, el tipo de empleo o la renta disponible (es decir, factores de clase social) y las preferencias estéticas. Hoy, cuando los algoritmos disponen de una información mucho más precisa y personalizada sobre nuestros gustos (nosotros se la regalamos a todas horas) y algunas de sus sugerencias nos satisfacen (Spotify no suele equivocarse cuando nos diseña una lista de reproducción), tenemos aún así la sensación de que muchas plataformas solo amplifican los peores contenidos, los más sensacionalistas o engañosos.
“El sistema de recomendación de Youtube, por ejemplo, tendrá un núcleo entrenado inicialmente con un determinado número de usuarios y después va recibiendo feedback y reentrenándose con cada visualización”, explica Pardo-Araujo. “Es cierto que los algoritmos reproducen muchos sesgos porque nunca puedes entrenar con toda la población y hay que ser muy cuidadoso con ese proceso: las distribuciones deben ser representativas de la realidad. Pero es gracioso que generen tanta alarma los sesgos en los algoritmos, cuando todo el mundo tenemos tantos que deberíamos eliminar también de nuestras conciencias. Igual cuesta menos reconocerlos en los algoritmos que en nosotros mismos”, añade la matemática, convencida de que los algoritmos reflejan lo que ya está ocurriendo en la sociedad.
Pero, cuando se trata de algoritmos, la línea entre adaptarse al gusto de los usuarios o modelarlo y dirigirlo, es muy delgada. Ahí surge esa sensación de que se nos muestra y recomienda una y otra vez una variación de lo mismo. Por ejemplo, hay quien acusaba a Billie Eilish de escribir sus canciones pensando en TikTok, pero ¿no es más fácil creer que, de manera no intencionada, le salen así porque, con su edad, ha pasado horas expuesta a TikTok? Esta retroalimentación algorítmica de tendencias ya existentes es la que más preocupa en el mundo de la cultura. De hecho, este es el proceso que algunos autores como Chayka llaman “aplanamiento de la cultura” y que da lugar a obras cada vez más conservadoras. Los creadores, consciente o inconscientemente, están reproduciendo los sesgos algorítmicos (que, a su vez, fueron los de artistas y usuarios anteriores).
A nivel técnico, la introducción de muestras cada vez más parecidas entre sí (o directamente producidas por algoritmos anteriores) dentro de los sistemas constituye una amenaza importante para su evolución. “Los sistemas entrenados con varias generaciones de resultados de IA enseguida se vuelven absurdos. El riesgo de que el contenido de buena calidad, generado por humanos, se convierta en un recurso como el petróleo o el carbón es real. Por supuesto, a diferencia de los combustibles fósiles, los mismos corpus antiguos se pueden utilizar indefinidamente, pero para que los modelos mejoren necesitan nuevos y más datos. Por lo tanto, los primeros descubrimientos son baratos y requieren poco refinamiento. Pero, a medida que se extraen las fuentes de siglos de texto, el coste de usar y refinar las reservas de menor calidad aumenta cada vez más”, expone Joque.
En el plano artístico, los algoritmos “retroalimentan constantemente la tendencia recurrente del momento”, señala Luis Demano, ilustrador y activista contra el uso abusivo de la IA generativa en su sector. Él ha identificado cuáles son las imágenes que más premian y reproducen los sistemas automáticos: “Suelen ser representaciones realistas cercanas a perfiles fotográficos y con un tratamiento cromático muy característico, forzando mucho los contrastes de iluminación entre los tonos cálidos y fríos”. Además de útil para reducir costes, Demano reconoce que “entrar en el juego del algoritmo” puede llegar a ser gratificante para quien los usa: “nos premia y nos hace sentir especiales con la atención recibida. El ego es una droga muy poderosa”.
Ni artístico ni original: cuando el algoritmo crea y distribuye
Cuando las nociones de autoría y originalidad se desarrollaron tras la Ilustración, el arte se convirtió en la práctica más característica de un nuevo tipo de individuo: creativo, autónomo y libre para elegir sus propias reglas y las que aplicaría a sus obras. Las reglas que utiliza la IA generativa para las obras que produce no tienen nada que ver con eso: son una aproximación estadística que aprovecha las características de las obras con las que ha sido entrenada, así como datos sobre el funcionamiento del mercado de la atención.
“Afirmo con rotundidad que las empresas tecnológicas roban obras protegidas por derechos de autor para entrenar sus modelos”, se queja Demano. Aunque la originalidad es una propiedad difícil de definir, los filósofos lo tienen claro: no es algo que se pueda encontrar en los productos de la IA. “La originalidad es una cuestión tanto de la obra de arte como del proceso de creación de la misma”, explica Joque. “Hace poco, pedí a mis alumnos que leyeran el cuento Pierre Menard, autor del Quijote, de Borges. El relato describe al excéntrico autor Menard, cuyo trabajo secreto es reescribir el Quijote palabra por palabra. Borges sugiere que escribir exactamente las mismas palabras en el s. XX cambia por completo la obra, ya que Menard les da un significado diferente al que les dio Cervantes al escribirlas a principios del s. XVII. Aunque Borges lo escribe un poco en broma, creo que sugiere que las condiciones en las que se crea el arte afectan a cómo lo entendemos y si lo encontramos interesante. Incluso si una IA pudiera producir una obra al estilo de Rothko, hacerlo automáticamente en el s. XXI nunca podrá compararse con lo que hizo Rothko en el s. XX”, desarrolla el profesor y filósofo.
Entonces, ¿qué es lo que hacen exactamente las IAs y por qué todas sus obras o productos se parecen tanto entre sí? Responde Demano: “No están diseñada para crear arte, sino para generar contenido. La diferencia entre ambos términos la establece la función que cumplen. El contenido sirve para que esa valla publicitaria infinita que es Internet pueda funcionar como negocio. La IA generativa es la solución de la industria tecnológica para cubrir esta necesidad de la manera más rápida y eficaz posible. Su mayor éxito ha sido hacernos creer que utilizarla puede convertirnos en artistas al instante, cuando en realidad somos clientes de un servicio de demanda de contenido”. Así que, cuando encontramos un aire de familia en todo lo que generan o nos ofrecen los algoritmos, no estamos ante un sesgo malintencionado o ante una cuestión de estilo: se trata, simplemente, de una imposición del mercado.
Entender el funcionamiento de los algoritmos ayuda a entender que no tienen inclinaciones políticas, sino que hacen circular aquello que nos provoca reacciones más encendidas, que requiere menos concentración o que se puede consumir más deprisa. Cuando se diviniza el algoritmo, se olvida que este es un simple mecanismo, y que su desarrollo y funcionamiento implica a muchos sujetos humanos: quien encarga una programación que maximice los beneficios, quien escribe ese código cumpliendo con un encargo (seguramente un autónomo infrapagado), quien lo entrena, en muchos casos involuntariamente, con sus creaciones y quien lo ejecuta en su ordenador o teléfono y a la vez lo alimenta.
Por supuesto, no hay que culpar al usuario, pero tampoco al mecanismo tras el que se esconde el verdadero operador de todo este proceso: un empresario al que el tipo de contenidos que reproduce su plataforma le trae sin cuidado; o lo que es lo mismo: Amazon no distingue entre distribuir un ejemplar de Los hermanos Karamazov o del Libro Troll de elRubius. Marx escribió que, con frecuencia, creemos que las estructuras sociales son objetos inamovibles o leyes naturales indiscutibles. Es una ilusión: todas las estructuras sociales y las construcciones científicas e industriales (y la Inteligencia Artificial lo es) son consecuencia de nuestros actos y relaciones y, con la suficiente fuerza colectiva, pueden ser modificados.