Los algoritmos se ceban con los más vulnerables en las redes: los inmigrantes son negros y tumultuosos; los refugiados, blancos y tranquilos
Una auditoría independiente de YouTube y TikTok detecta importantes sesgos algorítmicos que perpetúan la deshumanización y los estereotipos en torno a colectivos vulnerables
El 75% de los vídeos que enseña YouTube cuando se hace una búsqueda con la palabra “inmigrantes” muestra a hombres cruzando una frontera. En el 76% de los casos, se ve a personas no blancas moviéndose en grandes grupos, lo que “contribuye a deshumanizarlas” y promueve la “sensación de amenaza o avalancha”. En la misma plataforma, en cambio, tras la palabra clave “refugiados” aparecen mayormente vídeos de mujeres blancas, por influencia de la guerra de Ucrania, en situaciones sosegadas. Se aprecia mejor sus rostros y no se les ve cruzando fronteras o manifestándose.
Estos son algunos de los resultados que arroja un análisis realizado por Eticas a dos influyentes redes sociales: YouTube y TikTok. Esta consultora especializada en auditorías algorítmicas se ha lanzado a revisar de forma externa (extrayendo datos al abasto del público, no aportados por las propias plataformas) el trabajo de varias redes sociales. “Hemos querido analizar como se representa a inmigrantes y refugiados porque en los medios de comunicación se ha hecho mucha pedagogía sobre cómo se muestra a ciertos colectivos y qué consecuencias puede tener, pero esa reflexión no se ha llevado a las redes sociales”, explica Gemma Galdon, directora ejecutiva de Eticas.
El Reglamento de Servicios Digitales (DSA, por sus siglas inglesas) exigirá a partir del año que viene a las tecnológicas que operen en la UE que realicen auditorías independientes para garantizar un espacio digital seguro en el que se protejan los derechos fundamentales de los usuarios.
“Nuestra investigación ha demostrado que existe un problema de representación sesgada y desfavorable de la migración en YouTube. Determinamos que YouTube y otras partes involucradas deberían trabajar en la eliminación de una serie de sesgos de los sistemas algorítmicos, mostrar más transparencia e involucrarse más con los propios migrantes”, concluye el estudio.
Para la elaboración de este trabajo, realizado en Estados Unidos, Reino Unido y Canadá, los analistas de Eticas recopilaron vídeos en torno a la temática de inmigración durante dos meses (junio y julio de 2022 en el caso de YouTube y octubre a diciembre en el de TikTok). Lo hicieron a través de distintos perfiles en cada una de las plataformas para tratar de encontrar diferencias en los contenidos propuestos por el algoritmo. Entrenaron a usuarios ficticios para que se mostraran proinmigración, antiinmigración y neutros.
Las búsquedas se realizaron también desde ubicaciones con inclinaciones políticas distintas, de modo que se pudiese comprobar si había diferencias en este sentido. El análisis de YouTube se condujo desde Londres y Toronto, ciudades que guardan relaciones muy distintas con la inmigración y los refugiados. “Buscábamos espacios que estuvieran muy connotados políticamente. Toronto es una gran ciudad de Canadá, que tiene un gran compromiso histórico de acogida de inmigrantes y refugiados. Londres, en cambio, es la capital de un país que lleva tiempo significándose por un cierre de fronteras y un discurso más agresivo frente a la inmigración”, detalla Galdon.
En el caso de TikTok, se eligió San Francisco (mayoría demócrata), Oklahoma City (mayoría republicana) y Virginia Beach (ambivalente). Se centró el foco en EE UU por estar en un contexto de elecciones (las midterm elections, en las que se elige a todos los miembros de la Cámara de Representantes y a parte de los del Senado).
Curiosamente, los resultados fueron muy similares en todos los casos: el algoritmo apenas discrimina a los usuarios con el tipo de contenidos que muestra, ni por las características del perfil ni por la ubicación. Y eso que se tuvieron en cuenta tantos los resultados de las búsquedas directas como los contenidos sugeridos por el algoritmo de cada plataforma.
YouTube: distorsiones en la imagen general
Con más de 2.000 millones de usuarios activos, YouTube es la segunda plataforma social más usada del mundo, solo detrás de Facebook. Según el CEO de YouTube, Neal Mohan, hasta el 70% de los vídeos vistos en la plataforma son sugeridos por su sistema de recomendación de vídeos. Esas sugerencias se hacen a partir de un cóctel de datos en el que se incluye desde el historial de visualizaciones y las interacciones con los vídeos hasta la edad, sexo o localización del usuario. “En consecuencia, los algoritmos de recomendación de YouTube pueden influir en la percepción de un gran número de personas en todo el mundo sobre la migración”, sostienen los autores del informe.
El análisis de esta plataforma muestra que, en la gran mayoría de vídeos relacionados con la inmigración, los rostros de los personajes que aparecen en las grabaciones no son identificables. En más del 60% de los casos, los protagonistas no son individuos, sino grandes grupos de personas (15 o más). Solo un 4% de quienes aparecen bajo esta temática son blancos y las mujeres están infrarrepresentadas (suponen entre un 1% y un 4%). Las personas que aparecen en los cortes no trabajan (entre el 75% y 84% de los casos) y están protestando (entre 73% y 81%).
En el caso de los refugiados, el retrato es distinto. La mayoría son de rasgos caucásicos. En más de la mitad de las ocasiones se les puede identificar el rostro, hay más proporción de vídeos en los que aparecen de uno a cinco individuos y se muestra a más mujeres que a hombres. Hay más vídeos en los que no están cruzando una frontera que en los que sí lo hacen, pese a que, como en el caso de los inmigrantes, lo han tenido que hacer por fuerza.
“Nuestros sistemas de búsqueda y recomendación no están diseñados para filtrar ni degradar los vídeos o los canales según determinados puntos de vista políticos”, lee la política de la plataforma a la que se remite la compañía. “Además, sometemos nuestros sistemas automáticos a auditorías para asegurarnos de que no exista ningún sesgo algorítmico no deseado (por ejemplo, de género). Corregimos los errores tan pronto como los detectamos y volvemos a preparar nuestros sistemas para que sean cada vez más precisos”.
TikTok: mucho entretenimiento y poca política
TikTok es la red social de mayor progresión en los últimos años. Especialmente popular entre los más jóvenes, expone a los usuarios a vídeos cortos seleccionados por el algoritmo, que no tiene en cuenta lo que ven tus amigos ni siquiera tu país. La plataforma está diseñada para amplificar los contenidos más virales, sean de donde sean y muestren lo que muestren (siempre y cuando cumplan con las normas de contenido legal de la compañía).
Una de las conclusiones más llamativas del análisis de TikTok es que la plataforma china elude los vídeos de carga política en torno a los inmigrantes o los refugiados. Menos de un 1% de los contenidos estudiados desarrollan argumentos a favor o en contra de estos colectivos. La mayoría de los vídeos relacionados con esta temática mostraban a personas haciendo chistes, cocinando, trabajando, creando arte o mostrando alguna habilidad curiosa.
El trabajo de Eticas concluye que el algoritmo de recomendaciones de la red social china “no está influenciada por las preferencias políticas de los usuarios”. Tampoco por su localización. Eso choca con una investigación realizada por The Wall Street Journal, según la cual TikTok es capaz de aprender los intereses implícitamente asignados a los bots y ofrecerles contenidos que se adapten a estos en menos de dos horas. “Esto sugiere que el nivel de personalización del recomendador de TikTok se ajustó el pasado año y subraya la evolución en el tiempo de los algoritmos y la necesidad de reevaluar periódicamente su impacto”, indica el informe.
TikTok no cuenta con mecanismos específicos para tratar de corregir posibles sesgos, según explica una portavoz de la plataforma. El algoritmo va ofreciendo contenidos de distintos creadores, se apuesta por la diversidad de fuentes para que no haya distorsiones y para subrayar el carácter global de esta red social.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.