Reconocimiento facial y privacidad
Esta técnica de identificación ya se está aplicando en algunos sectores de actividad, pero se desconocen sus ventajas e inconvenientes
El reconocimiento facial ya se puede llevar a cabo por una técnica que permite autenticar o identificar a una persona. Así se está haciendo ya en algunos sectores de actividad sin ningún tipo de debate previo para analizar ventajas e inconvenientes.
Marco regulatorio
Recordemos que hablar de reconocimiento facial es hacerlo de biometría. En efecto, veamos lo que dice el Reglamento General de Protección de Datos (RGPD) a este respecto:
Artículo 9: Tratamiento de categorías especiales de datos personales
1. Quedan prohibidos los tratamientos de datos personales que revelen el origen étnico o racial, las opiniones políticas, las convicciones religiosas o filosóficas, o la afiliación sindical y el tratamiento de datos genéticos, datos biométricos dirigidos a identificar de manera unívoca a una persona física, datos relativos a la salud o datos relativos a la vida sexual o las orientaciones sexuales de una persona física.
Es decir, hay una modificación de la calificación de los datos biométricos pasando a ser datos sensibles. Ello supone un incremento en las medidas de seguridad a adoptar por el responsable del tratamiento. En este sentido, el Instituto Nacional de Ciberseguridad (INCIBE) ha producido una ‘Guía sobre tecnologías biométricas’, que en el apartado de ‘características físicas y fisiológicas’ incluye el reconocimiento facial como una de las tipologías biométricas.
En consecuencia, el uso de sistemas de reconocimiento biométrico debería incorporar:
- Un estudio del impacto en la protección de datos, pues se está tratando de datos sensibles. En este sentido, se deben prever medidas de seguridad destinadas a evitar pérdidas de datos o accesos indebidos.
- Un estudio que relacione la proporcionalidad de la medida a aplicar con la finalidad que se persigue con el tratamiento.
- Un consentimiento expreso de los afectados por la medida, de acuerdo con la nueva normativa.
Para perfilar un marco regulatorio sobre el impacto en la privacidad de los sistemas de reconocimiento facial, se han reunido recientemente las autoridades europeas de protección de datos para acordar el marco jurídico aplicable a estos sistemas y las garantías que los proveedores de servicios deben cumplir. Y, por supuesto, ponen especial énfasis en la necesidad de que exista un consentimiento previo e informado de los usuarios para el tratamiento de las imágenes digitales.
Inteligencia artificial
La tecnología sigue evolucionando y ya sabemos que, por ejemplo, a partir de técnicas biométricas se pretende que podamos acceder más sencillamente a un avión. Pero también debe tenerse en cuenta que mediante el uso de una tecnología 5G, de quinta generación, se puede intentar conocer ‘de pasada’ otro tipo de informaciones que tengan que ver con datos de carácter sensible como la salud. Cabe preguntarse pues sobre la legalidad de cada una de las actuaciones que se nos proponen.
Para dar respuestas a tantas preguntas, la Fundación Alternativas se prepara para facilitar el necesario debate de expertos que ayude a encauzar adecuadamente las actuaciones comentadas. Se convocará a parlamentarios, autoridades de protección de datos, juristas, universidades, científicos y a representantes de la sociedad civil.
Como señalaba Itziar de Lecuona, subdirectora del observatorio de bioética de la Universidad de Barcelona, en declaraciones recientes a El Periódico de Catalunya, “más que una regulación exhaustiva, la UE está intentando definir un marco ético y un sistema de certificación de la llamada Inteligencia artificial que resulte confiable. El problema está en que hay una parte inexplicada de esos sistemas que hacen muy difícil aplicar derechos como el consentimiento”.
Siguiendo esta línea de reflexión, se debería intentar encontrar un equilibrio entre el concepto más analógico de consentimiento con un marco ético que abarcara el uso de tratamientos basados en la tecnología 5G.
Conclusión
Debemos ponernos a analizar estos saltos tecnológicos, así como los riesgos éticos y sociales que conllevan. Esta evaluación es necesaria para determinar las técnicas que no pueden ser aceptables dentro de una sociedad democrática y las que pueden ser asumidas disponiendo las garantías apropiadas para el respeto a la privacidad, la propiedad intelectual o los derechos humanos.
* Antoni Farriols Solá es miembro de la Asociación Pro Derechos Humanos de España y de la Fundación Alternativas, y Diego López Garrido es vicepresidente ejecutivo de la Fundación Alternativas y catedrático emérito de derecho constitucional
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.