Injusticia programada

Se desperdician muchos recursos, también digitales, haciendo que la gente acredite que es lo suficientemente pobre para recibir ayuda

Cuatro ejemplos de series de caras usadas en la investigación de Bogdan Kulynych que ganó la competición sobre el algoritmo de Twitter.

De los Papeles de Pandora se pueden sacar muchas conclusiones. Una es que se supervisa mucho más a los ciudadanos pobres que a los que evaden y eluden impuestos. Parece que hay un derecho a hurgar en las vidas de quienes piden ayudas públicas y que sus datos pueden recopilarse sin pudor. La tecnología ha creado una asimetría brutal en la vigilancia y el control de riesgo: presupone que los que menos tienen son más egoístas, menos cuidadosos con el gasto, que van a atender peor ...

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte

Suscríbete para seguir leyendo

Lee sin límites

De los Papeles de Pandora se pueden sacar muchas conclusiones. Una es que se supervisa mucho más a los ciudadanos pobres que a los que evaden y eluden impuestos. Parece que hay un derecho a hurgar en las vidas de quienes piden ayudas públicas y que sus datos pueden recopilarse sin pudor. La tecnología ha creado una asimetría brutal en la vigilancia y el control de riesgo: presupone que los que menos tienen son más egoístas, menos cuidadosos con el gasto, que van a atender peor a sus hijos y a exprimir al sistema en cuanto puedan.

Poco a poco vamos tomando conciencia de lo básico, como que las plataformas como Facebook, Twitter o Tik Tok usan nuestros datos para ganar dinero, o que las dictaduras vigilan a sus disidentes a través de internet. El siguiente paso es comprender que la porquería no solo salpica a empresas privadas y a Estados autoritarios. Las democracias que presumen de garantistas también utilizan a los pobres como cobayas para probar tecnología invasiva. El año pasado, un tribunal en Holanda emitió una sentencia inédita en Europa que decía que el sistema de su Gobierno para detectar posibles fraudes violaba la privacidad y los derechos humanos de los afectados, que eran personas sin recursos e inmigrantes. Sobre la base de datos que habían recopilado las administraciones sobre su renta, el tipo de casa en el que vivían, si tenían multas o deudas pendientes, entre otros, un algoritmo estimaba las posibilidades que tenían de cometer fraude.

Lo de mirar con lupa en qué gastan dinero los pobres lleva ocurriendo desde el siglo XIX, pero la inteligencia artificial intensifica esta práctica. Virginia Eubanks, autora de La automatización de la desigualdad (Capitán Swing, 2021), cree que las antiguas casas para pobres en las que se atendía (y encerraba) a los desamparados que pedían ayuda hoy se han trasladado al ámbito digital. Eubanks lleva dos décadas documentando cómo en Estados Unidos cuando una persona pide una ayuda pública, vive en un barrio con más control policial o cruza una frontera nacional se expone a un nivel mayor de recopilación de sus datos.

Los algoritmos permiten trabajar con muchísima información de manera eficaz, pero no necesariamente aséptica. Aunque parezcan herramientas más objetivas, menos desviadas, más limpias, perpetúan los sesgos que hay en la sociedad. Como dice Eubanks, el juicio moral al pobre es una tradición americana que viene de lejos: no tienes dinero porque no te has esforzado lo suficiente, porque no vales, no por la manera en la que hemos organizado nuestra economía y nuestra convivencia. Se desperdician muchos recursos, también digitales, haciendo que la gente acredite que es lo suficientemente pobre para recibir ayuda. Y que moralmente la merece.

@anafuentesf

Sobre la firma

Más información

Archivado En