El reconocimiento facial nos desnuda ante desconocidos

Esta tecnología puede vulnerar la legislación al revelar información íntima de los ciudadanos o incurrir en sesgos raciales

Cámara de reconocimiento facial en el Mobile World Congress de Barcelona el pasado junio.Joan Cros (Corbis via Getty Images)

Averiguar por casualidad que eres adoptado tras subir tu foto a un buscador de imágenes y descubrir quiénes son tus padres biológicos. Conocer el pasado de tu nueva pareja, quiénes forman parte de su familia y dónde trabajan. O que se percaten de aquella adicción que tuviste hace años y que guardabas con llave. Todo eso es hoy posible a través del reconocimiento facial.

A modo de ejemplo, solo con colgar una foto suya en la ...

Suscríbete para seguir leyendo

Lee sin límites

Averiguar por casualidad que eres adoptado tras subir tu foto a un buscador de imágenes y descubrir quiénes son tus padres biológicos. Conocer el pasado de tu nueva pareja, quiénes forman parte de su familia y dónde trabajan. O que se percaten de aquella adicción que tuviste hace años y que guardabas con llave. Todo eso es hoy posible a través del reconocimiento facial.

A modo de ejemplo, solo con colgar una foto suya en la herramienta digital PimEyes, la persona que escribe este reportaje ha rastreado su rostro en internet con diferentes peinados, en lugares dispares, solo o acompañado. Y también ha descubierto a otras personas con características faciales muy parecidas a las suyas.

Más información

La última tecnología sobre el reconocimiento de rostros ya se está empleando, aunque los interrogantes que plantea desde el punto de vista jurídico son diversos. Porque, dependiendo de los datos biométricos recogidos, puede conocerse información muy íntima de la persona, como su etnia, características genéticas, enfermedades o estado emocional.

De hecho, la imagen de una persona, en la medida en que la identifique o la pueda identificar, constituye un dato de carácter personal protegido por el Reglamento Europeo de Protección de Datos y por la legislación nacional. Así lo explica Isabela Crespo, abogada sénior del despacho Gómez Acebo & Pombo, que señala que existe una “prohibición” general que impide a las empresas utilizar esta información.

Según establece el artículo 9 del reglamento europeo, “quedan prohibidos el tratamiento de datos personales que revelen el origen étnico o racial, las opiniones políticas, las convicciones religiosas o filosóficas, la afiliación sindical, el tratamiento de datos genéticos, datos biométricos dirigidos a identificar de manera unívoca a una persona física, datos relativos a la salud o datos relativos a la vida sexual o a la orientación sexual de una persona física”.

Consentimiento explícito

Para dejar esta prohibición sin efecto, las empresas deben alegar una justificación basada en el “interés público”, prevista en una norma que actualmente no existe en el Derecho español, o recabar el “consentimiento explícito” del interesado, explica la letrada. Pero, aun así, la Agencia Española de Protección de Datos es muy restrictiva a la hora de autorizar el tratamiento de información personal basada en el rostro.

Por ejemplo, en el Informe 47/2021 sobre el reconocimiento facial de clientes de bancos para verificar su identidad, el regulador acaba de resolver que no se cumplen los principios de “necesidad, proporcionalidad y minimización”. Dicho de otra forma, considera que hay medidas menos invasivas que el empleo de esta tecnología para identificar a las personas.

Precisamente, el Atlético de Madrid ha anunciado que trabaja en la implantación de sistemas de reconocimiento facial en el Wanda Metropolitano para la próxima temporada. La medida se enmarca en la apuesta tecnológica del club en su estadio, que tiene capacidad para más de 68.000 personas. La duda que planea sobre el equipo rojiblanco es si el tratamiento de estos datos biométricos es o no lícito, toda vez que la justicia ha impedido a Mercadona usar el reconocimiento facial para detectar la presencia de ladrones en sus tiendas.

Más información

“Esta Sala no puede compartir que con la medida interesada [el reconocimiento facial] se esté protegiendo el interés público, sino más bien, los intereses privados de la empresa en cuestión, pues se estarían conculcando las garantías en orden a la protección de los derechos y libertades de los interesados, no ya solo de los que han sido penados y cuya prohibición de acceso les incumbe, sino del resto de personas que acceden al citado supermercado”, razonó la Audiencia Provincial de Barcelona en el auto por el que le denegó a Mercadona el uso de esta tecnología.

A juicio de Alfonso Hurtado, socio de la firma de abogados Écija, el Wanda Metropolitano podría defender que el usuario consiente explícitamente que se traten sus datos biométricos por el mero hecho de acceder al estadio, previa información al respecto por parte de la empresa. Lo importante es que ese consentimiento no esté “viciado” o, dicho de otra forma, que “no discrimine” al aficionado que “no permite” tratar sus datos.

Sin embargo, se trata de cuestiones frente a las que “los reguladores están adoptando posiciones proteccionistas” sobre los derechos de los ciudadanos, advierte el letrado Hurtado. En esta dirección apunta Paloma Bru, socia del despacho Pinsent Masons, que considera que “el consentimiento explícito en ningún caso podrá entenderse prestado por la mera aceptación tácita, por el hecho de acceder al estadio”, ya que se exige una “manifestación de voluntad específica, informada e inequívoca”. Para garantizar que el consentimiento se da libremente, “debe ofrecerse a los interesados soluciones alternativas al reconocimiento facial, por ejemplo, una contraseña o una tarjeta de identificación que sean fáciles de utilizar”, ya que si tuvieran demasiados caracteres o fueran complicadas en comparación con la tecnología de reconocimiento facial, “la elección no sería auténtica”.

En cualquier caso, la letrada explica que si los ciudadanos consideran que a través de la identificación mediante el reconocimiento facial se están vulnerando sus derechos fundamentales, además de poder dirigirse a la Agencia Española de Protección de Datos, pueden “presentar una demanda directamente ante los tribunales y solicitar una indemnización, así como la paralización del tratamiento de datos”.

El borrado de mujeres y negros

El año pasado trascendió que Twitter daba preferencia en el recorte de imágenes a las personas blancas sobre las negras y a los hombres sobre las mujeres. Sesgos que contrastan con los errores de algunos algoritmos de reconocimiento facial a la hora de identificar a afroamericanos y asiáticos, pues han considerado que diferentes personas son la misma. Una situación de cuya gravedad advierte Pablo Fernández, abogado de PwC, pues “el porcentaje de precisión del 99% sigue suponiendo un riesgo de que se identifique como culpable a un inocente”. Para evitarlo, es fundamental “la validación” humana de la tecnología de reconocimiento facial.


Más información

Archivado En