_
_
_
_
_
Capítulo IV: Dónde estamos

¿Qué futuro queremos para el reconocimiento facial?

En esta última entrega explicamos en qué momento tecnológico nos encontramos, cómo estas herramientas están siendo utilizadas por las fuerzas policiales y qué leyes nos amparan

Olivia López Bueno

A mediados de este extraño 2020, una noticia se colaba en medio del desconcierto y la pandemia. IBM, Amazon y Microsoft anunciaban de diferente manera pero con igual propósito, su intención de dar un paso atrás en la comercialización de sus sistemas de reconocimiento facial, especialmente la de aquellos destinados a las fuerzas de seguridad. El detonante fueron las noticias, que se han repetido en los últimos meses, sobre abusos policiales en Estados Unidos y las consiguientes manifestaciones de repulsa en muchas ciudades.

Cuando tres de las mayores empresas tecnológicas del mundo se cuestionan y echan el freno a los propios sistemas de inteligencia artificial (IA) que ellos mismos desarrollan (con las consecuentes pérdidas económicas) surgen varias preguntas. ¿En qué medida el reconocimiento facial está siendo usado por las fuerzas policiales sin que se garanticen los derechos de privacidad de los ciudadanos? ¿Lo que sucede en EE UU puede equipararse a Europa? ¿Y qué pasa con las empresas? ¿Qué uso dan de los datos biométricos que obtienen de sus usuarios, a veces sin ser conscientes de ello? ¿Todo es malo en el reconocimiento facial, o no vemos su lado bueno? ¿Qué futuro nos espera si no le ponemos freno a algunas actuaciones?

En este cuarto y último capítulo de la serie de reconocimiento facial trataremos de entender en qué momento nos encontramos, tanto a nivel tecnológico, como jurídico y a partir de aquí, trazar el posible futuro que podríamos conocer.

Para empezar, debemos separar la forma de proceder de la policía en países como en EE UU o China, del sistema europeo, al menos en la actualidad. Factores como la cultura, la legislación o el sistema político marcan las diferencias: "A nivel europeo nosotros somos mucho más restrictivos, por los derechos que tienen las personas a su imagen. Realmente, las fuerzas y cuerpos de seguridad aquí en España, no hacen ese uso tan intensivo [de la vigilancia facial] como en otros países", según el inspector Sergio Castro, jefe de Grupo de estudios fisonómicos de la Comisaría General de Policía Científica de la Policía Nacional.

Esa limitación en favor de la privacidad de la ciudadanía viene amparada por leyes europeas, como el Reglamento General de Protección de Datos, pionero en un área aún novedosa que a veces puede suscitar dudas a los propios juristas. Por ello, "han surgido otros grupos de trabajo para clarificar o dar soporte sobre cuál es la interpretación que hay que hacer del reglamento. Y las autoridades de control de cada uno de los países han ido emitiendo guías, así como el Comité Europeo de protección de datos (EDPB)", comenta Andrés Ruiz, abogado especializado en temas de tecnología, innovación y privacidad en Ramón y Cajal Abogados.

En la Policía Nacional, las herramientas de reconocimiento facial no parecen, a primera vista, increíblemente sofisticadas, ni detectan con la precisión de 100% a un individuo. Pero tampoco se trata de eso. "Estas herramientas simplemente lo que hacen es ofrecer una puntuación, un score entre dos fotografías, para saber, en función del algoritmo, cuánto se le parece. Cuanto más alto es el score más fiabilidad tiene, pero eso no garantiza que sea esa persona. Lo que ofrecen estas herramientas son candidatos potenciales a la fotografía presentada, pero eso luego se tiene que demostrar, que validar". Aclara el inspector. Y esta no es una función baladí: si un agente tuviera que realizar esta comprobación manual enfrentando esa foto a la de tres millones de imágenes registradas, por ejemplo, sería una tarea imposible.

Otra de las garantías de las restricciones de privacidad aplicadas en España es que, a diferencia de EE UU, por ejemplo, donde las bases de datos de la policía pueden integrar incluso las fotos de los permisos de conducir de los ciudadanos, el sistema es mucho más protector de los derechos del ciudadano. "Cualquier imagen no puede incluirse en la base de datos y hacer búsquedas sobre ellas, están específicamente diseñadas con personas que han cometido hechos delictivos", asegura Castro.

Por otro lado, y enfocado a diferente uso, las tecnologías de comparación facial uno a uno (fotografía en vivo que debe corresponder con el pasaporte) serán cada vez más frecuentes en aeropuertos y empiezan a plantearse en Europa para controles fronterizos.

Las herramientas automáticas de comparación facial son bastante recientes, y como suele ser habitual, al nacimiento de una nueva tecnología le sucede la regulación normativa."Ahora mismo se encuentran bajo el amparo genérico de la protección de datos a nivel personal, pero no existe una regulación normativa muy específica" explica Castro.

¿Podrían grabarnos y usar nuestra imagen por una causa justificada? Ruiz distingue entre dos situaciones. Las fuerzas y cuerpos de seguridad pueden tener competencia para instalar videovigilancia, pero la base legal debe estar diferenciada cuando a estas cámaras se le superponen unos sistemas de reconocimiento facial, ya que van más allá de la grabación. "En este caso, posiblemente deberíamos acudir a las bases legales del artículo 9.2 del Reglamento para tratamiento de datos especialmente protegidos, en el que por ejemplo, podríamos hablar de interés público esencial al tratarse de una infraestructura crítica, como un aeropuerto o una central nuclear, cuya normativa específica en su interior puede facultar el uso de estos sistemas".

El abogado especializado en temas de tecnología añade que uno de los problemas que plantea el reconocimiento facial es que puede estar pensado para que el tratamiento sea masivo y se use de forma indiscriminada en grupos de población. "El reconocimiento facial incluso con consentimiento expreso está muy cogido con pinzas, tal como han manifestado ya ciertas autoridades". El consentimiento expreso que debería proporcionar el usuario (y más teniendo en cuenta que son datos biométricos, especialmente protegidos) es difícil de justificar ante la normativa de protección de datos cuando el usuario no es consciente de que una cámara le está reconocimiento. La compañía o entidad responsable debería además informar al usuario del uso y tratamiento que hará de esos datos posteriormente.

Luis Baumela, Profesor del departamento de Inteligencia Artificial de la Universidad Politécnica de Madrid (UPM) aclara que estos sistemas funcionan bien siempre y cuando exista una colaboración por parte de la persona que se quiere reconocer. "Fuera de este contexto, la fiabilidad cae dramáticamente". Castro corrobora que generalmente cuando se cometen hechos delictivos las grabaciones suelen ser de baja calidad. Estas cámaras de videovigilancia, pensadas para abarcar la mayor área posible y los movimientos de personal, no están diseñadas para la identificación, pero mantener un dispositivo 24 horas al día grabando en alta calidad generaría una cantidad enorme de datos almacenados que a la mayoría de las empresas les sería imposible almacenar. "En función de la calidad de imagen que tengan esas grabaciones tratamos de llegar a una certeza mayor o menor."

Baumela ve el lado positivo a la limitación de estos sistemas en la actualidad, considerándolo incluso como una garantía de privacidad. "Yo hasta cierto punto me siento tranquilo de que una imagen mía tomada con una videocámara con poca resolución y vista desde un lateral sea difícil de reconocer, pero entiendo que en el futuro la tecnología irá mejorando y por eso es necesario que se desarrolle legislación que nos proteja."

Otro obstáculo es el controvertido asunto de los sesgos. Los modelos basados en redes de neuronas en los que se apoyan estos sistemas de reconocimiento facial se caracterizan por su falta de transparencia a la hora de tomar decisiones. Ese es otro reto al que debe hacer frente la investigación de IA aplicada a este campo.

El análisis del rostro humano en general también puede tener aplicaciones muy beneficiosas para la sociedad, como comenta el profesor Baumela. Un ejemplo de ello son los sistemas que analizan los gestos y mejoran la interacción hombre-máquina, o los procedimientos de visión por computador que ayudan a la comunicación con personas de movilidad reducida o sordomudas.

Además, hay que considerar que el uso de aplicaciones que utilicen reconocimiento o identificación, en principio, no tienen por qué suponer un riesgo, siempre y cuando se garantice que la información biométrica no salga de nuestro dispositivo o del ámbito privado.

Y por último, estos sistemas han facilitado identificaciones en hechos delictivos importantes de personas buscadas por otros países, usando por ejemplo las herramientas automáticas de las que dispone la Interpol, recuerda el inspector Castro.

Los tres expertos consultados coinciden en la necesidad de exigir una legislación que garantice nuestros derechos. De lo contrario, como dice Baumela, "nuestra sociedad podría evolucionar hacia un mundo orweliano, donde se nos controle, se viole nuestra privacidad". Los peligros a los que nos veríamos abocados se parecerían a un mal sueño de ciencia ficción: desde empresas que identifican nuestro rostro cada vez que pasamos por un establecimiento para mostrarnos productos a medida, saber en todo momento dónde estamos, qué sentimos... "Sería el final de la circulación anónima de las personas" añade Ruiz. Y todo esto sin olvidar claro, el uso que dictaduras y países represivos pudieran darle a estas herramientas en un futuro.

Sin embargo, no todo está perdido, el profesor Baumela se muestra optimista. Aunque Europa se ha situado hasta ahora por detrás de EE UU y China en capacidad tecnológica, ve en este aparente retraso una gran oportunidad para la que empresas e investigadores puedan desmarcarse de la tendencia llevada hasta ahora y desarrollar un tipo de IA a la europea, mucho más respetuosa con la privacidad y los derechos humanos, sin sesgos y transparente con el uso de los datos. "Y que no solamente tenga un fin comercial, sino una vertiente social. Ahí podemos marcar la diferencia."

Puedes seguir a EL PAÍS TECNOLOGÍA RETINA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.

Los métodos de reconocimiento: por capítulos

En esta pequeña serie de 4 entregas, hemos repasado a través de varios vídeos, la historia, evolución y funcionamiento de los sistemas de reconocimiento facial. También analizando cómo han ido avanzando desde la vigilancia al control, penetrando poco a poco en nuestras vidas.

Más información
Cómo el reconocimiento facial empezó en una tableta de los 60
¿Cómo pueden identificarme los sistemas de reconocimiento facial?
La invasión silenciosa del reconocimiento facial

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Olivia López Bueno
Reportera gráfica en El País Vídeo. Ha trabajado en el departamento de comunicación de diferentes empresas como creativa, diseñadora gráfica y web. Es licenciada en Publicidad y Relaciones Públicas por la Universidad Complutense de Madrid, especializándose posteriormente como técnico de audiovisuales

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_