Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra

Demasiada cara

No sorprende que la gente esté aprendiendo deprisa formas eficaces de taparse el rostro

Imagen tomada en enero de una demostración rela de identificación facial en la feria Horizon Robotics de Las Vegas.
Imagen tomada en enero de una demostración rela de identificación facial en la feria Horizon Robotics de Las Vegas.

A la agencia de inmigración estadounidense (Immigration and Customs Enforcement, ICE) la han pillado con las manos en la masa. En una operación secreta, y por supuesto sin pedir consentimiento a las personas ni permiso a los reguladores, la ICE estaba escaneando millones de fotos de los carnés de conducir con la intención de crear una base de datos que luego sirviera, mediante los modernos algoritmos de reconocimiento facial, para detectar y deportar a los inmigrantes sin papeles (salvo el carné de conducir). Quienes han descubierto la operación no son policías estatales ni agentes federales, sino un grupo de investigadores de la Universidad de Georgetown en Washington, pero ya hay varios Estados —el último ha sido Ohio, a principios de este mes— que han prohibido a la ICE utilizar bases de datos de reconocimiento facial.

Pero esto solo ha sido porque unos investigadores académicos han pillado a la agencia. Y hay más agencias en el mundo que estrellas en la noche. Según Kate Crawford, investigadora de Microsoft Research y profesora de la Universidad de Nueva York, la agencia norteamericana de protección de fronteras (Customs and Border Protection) está haciendo lo mismo con las fotos de los pasaportes de todos los pasajeros que salen del país. Y Amazon ha llegado a acuerdos con 200 departamentos de policía para crear bases de datos faciales con los vídeos que toman las cámaras de seguridad caseras. Y esto es solo lo que sabemos. Cabe sospechar que lo más gordo se esté cocinando en las oscuras alcantarillas de Langley, Virginia, a las que ni podemos soñar con tener acceso, al menos hasta que estalle un cara-leaks de los gordos.

Los algoritmos de reconocimiento facial plantean dos problemas acuciantes. El primero es que la técnica es poco fiable por el momento. Las pelis de espías, como las de la serie Bourne, donde un jefe de colmillo retorcido y media docena de informáticos cómodamente sentados en la sede de la CIA pueden localizar a un periodista de The Guardian en una plaza pública de París atestada de gente en cuestión de segundos, nos han dado una impresión errónea. Unos investigadores del MIT (Instituto de Tecnología de Massachusetts, junto a Boston) han demostrado que el reconocimiento facial más avanzado es muy preciso con hombres blancos, pero falla el 35% de las veces con mujeres negras. Otros científicos de la Universidad de Essex, Reino Unido, han revelado que los algoritmos faciales que utiliza la policía metropolitana de Londres solo aciertan en 8 de cada 42 casos, lo que ya es de traca. Un juez tendría que estar loco para aceptar ese tipo de dato como una prueba.

Pero los escollos técnicos se acaban resolviendo, y esto nos lleva al segundo problema, que es mucho peor. Cuando el reconocimiento facial funcione con alta precisión, nos enfrentaremos a una batería de cuestiones éticas y jurídicas que dan vértigo de puro profundas. Crawford y sus colegas del Instituto AI Now de Nueva York creen imprescindible una moratoria para dejar de financiar el reconocimiento facial hasta que las garantías legales sean adecuadas, cosa que no ocurre ahora ni de lejos, y también proteger a los delatores que revelen las malas prácticas de las empresas y la Administración.

Entretanto, no sorprende que la gente esté aprendiendo deprisa formas eficaces de taparse la cara. En las protestas de Hong Kong, los manifestantes también apuntan sus rayos láser a las cámaras para cegarlas y confundirlas. Si los legisladores no funcionan, las máscaras lo harán.

Puedes seguir EL PAÍS Opinión en Facebook, Twitter o suscribirte aquí a la Newsletter.

Se adhiere a los criterios de The Trust Project Más información >