X
Privacidad y Cookies

Utilizamos Cookies propias y de terceros para ofrecer un mejor servicio y experiencia de usuario.

¿Permites el uso de tus datos privados de navegación en este sitio web?

Así caemos por la espiral tóxica de YouTube

Un experimento de EL PAÍS muestra cómo la plataforma de vídeos escoge contenido extremo, aunque esté repleto de bulos, para lograr mantener enganchada a la audiencia

Mosaico con algunos de los personajes recomendados por YouTube. En el vídeo, explicación del algoritmo de la plataforma.

Es la primera vez que entra en YouTube y pregunta en su buscador, el segundo más usado del mundo, por el cambio climático. Entre los resultados, la mayoría son vídeos más o menos acordes con el consenso científico. Pincha en el primero que YouTube le recomienda que vea, uno en el que Acciona sugiere soluciones a esta crisis climática. Tras verlo, YouTube le recomienda varios vídeos científicos, solo tres sobre el futuro del clima. En el primero de ellos, un youtuber desconocido explica que el calentamiento es "falso". Su canal se llama Atraviesa lo desconocido y si deja que empiece su vídeo, atraviesa realmente un umbral hacia una nueva pantalla en la que casi todas las recomendaciones son conspiraciones pseudocientíficas. Incluso evitando este canal, tras un par de vídeos con mensajes correctos sobre la ciencia del clima, YouTube le muestra una mayoría de vídeos conspiranoicos y negacionistas. A partir de ahí se desciende por una espiral de vídeos que defienden todo tipo de patrañas, desde que la Tierra es plana hasta que la Luna es una construcción artificial que se nos oculta.

El algoritmo que  recomienda qué ver insiste en que sepamos que la NASA miente

A este fenómeno los anglosajones lo denominan rabbit hole (madriguera de conejo), en referencia a la caída que llevó a Alicia a ese país de maravillas y pesadillas. Esta caída se produce en YouTube en todos los temas cercanos a la ciencia. Preguntar por el 50º aniversario de la llegada a la Luna o por el agua en Marte lleva una y otra vez a este agujero. El algoritmo que recomienda qué ver en el portal de vídeos de Google insiste en que sepamos que la NASA miente, que los extraterrestres ya están entre nosotros o que Nostradamus fue un gran profeta.

En cuestiones de salud, la caída es más brusca si cabe: desde el comienzo la mayoría de las recomendaciones son peligrosa pseudociencia. Como denunciaron las autoridades catalanas hace un año, buscar "cura cáncer" sugiere toda clase de curanderos y canales que aseguran que el remedio es tan sencillo como tomar bicarbonato. Las falsedades sobre los peligros de vacunar a los bebés nos asaltan tras ver el primer vídeo recomendado, que es legítimo, sobre vacunas.

YouTube es la segunda página web más visitada del mundo, tiene 1.900 millones de usuarios registrados que entran cada mes y que ven más de 1.000 millones de horas de vídeo. Su buscador es el segundo más usado detrás de Google, que pertenece al mismo grupo que YouTube. Las recomendaciones de Youtube tienen una enorme capacidad de influencia. Su preferencia por una mezcla de argumentos extraños, visiones extremas y bulos junto a vídeos más convencionales tiene consecuencias. Esas recomendaciones aparecen en la página principal de YouTube de cada usuario y en la columna de vídeos que propone como “siguiente” al acabar de ver cada uno. El algoritmo que gestiona estas sugerencias es responsable de la mayor parte del tiempo que los usuarios pasan en la plataforma.

Si Facebook es el lugar donde se encuentran personas con gustos peculiares que antes de Internet no se conocían, YouTube es su gran altavoz. Cuando un usuario ve un vídeo, la plataforma recomienda siempre un vídeo “siguiente”. El espectador no debe tomar ninguna decisión. Ese es el camino que lleva a agujeros negros de distinta profundidad. El descenso requiere pocos esfuerzos de espeleología digital: solo hay que dejarse llevar por lo que el mecanismo de YouTube cree que le mantendrá en la plataforma durante más minutos.

El descenso requiere pocos esfuerzos de espeleología digital: solo hay que dejarse llevar

En EL PAÍS hemos hecho ese descenso experimental con dos docenas de búsquedas vinculadas a temas sociales y políticos en español: cáncer, vacunas, denuncias falsas, tierra plana, política, pucherazo, Pedro Sánchez, Zapatero Venezuela, políticos corruptos en España, referéndum catalán, sentencia sobre La Manada, pensiones en España, crisis económica 2019, paro en España, inmigración en España, privilegios de los inmigrantes, cambio climático, cómo ligar, aniversario Luna, vacunas, agua en Marte. Hemos abierto una sesión privada en el navegador para que nuestro historial no influyera en las decisiones del algoritmo, hemos escrito la palabra o expresión clave del tema en la barra de búsqueda de YouTube y hemos seleccionado una de las primeras opciones que ofrecía. De ahí se han seguido simplemente los vídeos que YouTube ofrecía como siguiente propuesta: estábamos en manos del algoritmo.

YouTube apenas revela detalles sobre cómo funciona su algoritmo de recomendación. “Nuestros sistemas reflejan el interés del usuario y optimizan para una satisfacción a largo plazo”, dice la compañía. Como sabe quien mira lo más leído en un periódico digital, el “interés del usuario” es voluble y básico. YouTube retoca constantemente su algoritmo. Desde hace unos años confía más en los minutos que se ven de un vídeo y en los likes para evitar titulares virales o fotogramas llamativos.

Cada día YouTube recomienda 200 millones de vídeos solo en su página de entrada. Su escala es inconmensurable. El 26% de los españoles dice usar YouTube para informarse, según el último informe del Instituto Reuters de la Universidad de Oxford.

Cada día YouTube recomienda 200 millones de vídeos solo en su página de entrada. Su escala es inconmensurable

En inglés, las recomendaciones políticas son tan radicales como las pseudocientíficas. Desde un discurso oficial de un político es fácil llegar a canales de contenido racista o supremacista y es ahí donde YouTube ha empezado a trabajar, incluso cerrando canales. 

Muchos de estos experimentos en español no llevan necesariamente a estos agujeros y, en muchos casos, parece que el algoritmo se resiste a adentrarse por derroteros demasiado tóxicos en cuestiones políticas. Hace unos pocos meses no era así. Por ejemplo, una búsqueda sobre "La Manada" a finales de 2018 ofrecía desde los primeros resultados una mayoría de vídeos de carácter machista y muy ofensivos hacia la víctima de la violación y el colectivo feminista. Además, deslizaban todo tipo de interpretaciones basadas en conspiraciones. Ahora, estos mismos vídeos aparecen recomendados, pero menos, y ya no se ofrecen en una espiral sin fin. No obstante, depende de la formulación: los resultados de "sentencia La Manada", "pucherazo electoral" o "privilegios inmigrantes" son mucho más tóxicos que "Manada", "elecciones España 2019" e "inmigración".

Pero ha sido así durante muchos años, como denuncian numerosos especialistas, generando lo que algunos denominan la influencia alternativa. En YouTube se ha creado un universo de realidades paralelas a la ciencia o al consenso político, en el que las conspiraciones son el pensamiento convencional. Así, la amplificación algorítmica de los contenidos más extremos puede llevar a radicalizar a jóvenes o a convencer de que la quimioterapia es lo que mata.

"El algoritmo trabaja como una bola de nieve: puede crecer mucho en ciertas condiciones. Parece que la pseudociencia creció mucho en España y el extremismo más en Estados Unidos. La desinformación anti cambio climático no explotó en Francia, por ejemplo. Pero las cosas pueden cambiar y el extremismo puede también crecer exponencialmente en España”, dice Guillaume Chaslot, exingeniero en YouTube y ahora fundador de la web Algotransparency.org. ¿Podría ser que YouTube retocara el algoritmo para evitar que algo crezca en un lugar determinado? No está claro, dice Chaslot, pero “YouTube intenta hacer la menor intervención manual posible”.

"El algoritmo trabaja como una bola de nieve: puede crecer mucho en ciertas condiciones", asegura un exingeniero de la plataforma

El algoritmo intuye que quien busca sobre “La Manada” o “inmigración” estará más minutos o verá más vídeos si le ofrecen contenido polémico. Es probable que el algoritmo lo haya aprendido de otros humanos, que dedican más tiempo a ver vídeos sobre ovnis que sobre el hábitat de animales salvajes.

Pero es evidente que el ecosistema español es distinto del inglés. Puede ser por varios motivos, según Ricardo Baeza Yates, catedrático de la Universitat Pompeu Fabra y especialista en sesgos en Internet: “Uno, hay menos contenido en español; dos, hay menos usuarios; tres, hay menos polarización que en Estados Unidos”.

En enero, YouTube anunció en Estados Unidos que los contenidos que rozaban la pseudociencia iban a ser menos recomendados. A principios de junio, reveló que ese cambio estadounidense había llevado a un 50% menos de visualizaciones de esos vídeos y que iba a llevar el cambio a otros países. No se sabe si España estará entre ellos.

YouTube ha tenido que actuar sobre todo en su plataforma recientemente en casos de acoso por homofobia, promoción del supremacismo blanco o creación de bulos que acusaban de ser actores a las víctimas de masacres en colegios en Estados Unidos. El castellano no tiene un repertorio tan profundo de extremismo.

Cuando alguien entra en Facebook, Reddit o Twitter, debe buscar activamente sus amigos, sus intereses. Es frecuente que contenidos que limitan con la decencia sean difíciles de encontrar. También ocurre en Google. El buscador no ofrece bulos como respuestas a búsquedas sencillas como “vacunas” o “crisis económica”. Pero YouTube, que es una empresa de Google, sí. ¿Por qué son tan distintas las herramientas de una misma empresa? La explicación más sencilla es que el objetivo de Google es mandarle a la mejor página; YouTube en cambio quiere mantenerle en la suya.

La política española se salva

El recorrido por contenidos sociopolíticos españoles no es tan tóxico. Alterna mensajes polarizadores con algo que pasa por moderado o que al menos se ha emitido en televisión. Al buscar "pactos electorales" es recurrente acabar viendo vídeos de los programas de Federico Jiménez Losantos, del canal de su radio. Al buscar por “crisis económica”, emerge una mezcla de conferencias y entrevistas largas a Santiago Niño Becerra en ETB y TV3 de hace unos años con elegías del decrecimiento que tienen 5.000 visualizaciones. No parece un contenido atractivo para quedarse enganchado.

Pero con la mínima variante de escoger la siguiente opción que da el buscador de YouTube —“corrupción económica 2019”—, el recorrido es distinto. Primero aparece un vídeo habitual en estas búsquedas sobre temas de economía: “¿Por qué la nueva y próxima crisis económica mundial será en 2019?” y añade “[VÍDEO CENSURADO]”, que es un vídeo que solo proyecta gráficos y la voz del presunto autor habla encima, sin más. Pero el segundo vídeo recomendado, sin venir a cuento, ya es una conferencia del ufólogo Sixto Paz que tiene 1,3 millones de visualizaciones. El algoritmo ya no abandona el aparentemente fructífero camino de Paz y sus aventuras con ovnis en otros planetas. El recorrido nos lleva hasta la recuperación de la edición de la mítica La máquina de la verdad, con Julián Lago, donde Sixto Paz falló una pregunta. El siguiente vídeo de YouTube es, sabiamente: “¿Por qué Sixto Paz falló en el detector de mentiras”. (Paz dice que solo había pedido una cosa a los realizadores de Tele 5: “No les pedí dinero, solo que el programa fuera en directo”. No cumplieron y por eso sale fallando).

En España hay casos sueltos de youtubers políticos pero no hay un ecosistema creado a su alrededor, donde escriban libros, den conferencias y se nutran sus canales con millones de visitas mutuas. Los grandes éxitos en la extrema derecha española suelen ser cortes de los candidatos de Vox en tertulias. Y tampoco son ejemplos de éxito para la escala de YouTube: el canal de Vox tiene 161.000 suscriptores.