Hemos SEO engañados
Una filtración de documentos señala que los criterios con los que Google ordenaba sus búsquedas no son los que decía
El algoritmo del buscador de Google es posiblemente el código más influyente de la historia. Imposible imaginar cómo sería internet sin él. Sigue siendo la gallina de los huevos de oro de Alphabet, pese a la palpable degradación de sus resultados. Es el producto que más dinero gana, y el origen del modelo de negocio que domina nuestro tiempo. Desde que ...
El algoritmo del buscador de Google es posiblemente el código más influyente de la historia. Imposible imaginar cómo sería internet sin él. Sigue siendo la gallina de los huevos de oro de Alphabet, pese a la palpable degradación de sus resultados. Es el producto que más dinero gana, y el origen del modelo de negocio que domina nuestro tiempo. Desde que Sheryl Sandberg encontrara la manera de monetizar las búsquedas registrando los clics de los usuarios y subastando su atención, el capitalismo de vigilancia ha invadido todas las industrias y servicios, degradando nuestra democracia, nuestro ecosistema mediático y nuestra estabilidad mental.
La semana pasada, una filtración de 2.500 documentos internos expuso algunos de los mecanismos de ese algoritmo. Es imposible sobredimensionar la importancia de tener acceso por primera vez a una capa tan fundamental y tan oscura de la Red. Las primeras reacciones son devastadoras: Google ha mentido durante años —a los usuarios, a las autoridades, a los medios y a sus expertos de SEO— sobre los datos que usa, los atributos que premia y la limpieza “algorítmica” del ranking de resultados. Al mismo tiempo, su primer intento de transformarlo en un buscador de IA ha sido más cómico que prometedor.
Los modelos de IA no mienten, solo juegan con las palabras sin saber que están conectadas a una base de datos llamada la realidad
A principios de mayo, los usuarios estadounidenses empezaron a ver resúmenes generados por IA, en lugar de la habitual lista de páginas web comisariada por el famoso pagerank. Una de las más celebradas fue una fórmula para evitar que el queso se caiga de la pizza: “Mezcla aproximadamente 1/8 de taza de pegamento Elmer con la salsa. El pegamento no tóxico funcionará.” Las habrá peores. Los grandes modelos de lenguaje, como Gemini, Claude o GPT, han sido entrenados con contenidos de la World Wide Web, y muestran algunos problemas de comportamiento: plagian, aliteran e inventan personas que no existen, citando frases que nadie ha dicho en libros que no han sido escritos sobre acontecimientos que no han tenido lugar.
Lo hacen con el aplomo de un Nobel de Economía o un catedrático de Historia de Harvard, porque los modelos del lenguaje no mienten. Para mentir hace falta saber la verdad y desviarse conscientemente de ella. Los modelos de IA sólo juegan con las palabras sin saber que, en nuestro mundo, están conectadas a otra base de datos llamada realidad. No distinguen una broma de un consejo, no detectan la ironía en un eslogan, no valoran la variabilidad del tono, el contexto o la cultura. No detectan la desinformación.
Habría motivos para pensar que el imperio del buscador de Google está a punto de acabarse. Con todo, sigue manteniendo enormes ventajas competitivas. Gana dinero, tiene acceso a los datos y es la empresa con más experiencia en el negocio. El problema de las alucinaciones no es suyo, es el que tienen todos. Pero pronto cumplirá los 18 años y el Valle no perdona. Siempre hay alguien más joven y hambriento bajando la escalera detrás de ti.
Apúntate aquí a la newsletter semanal de Ideas.