_
_
_
_
Inteligencia artificial

Tu cara no es tu DNI: San Francisco prohíbe el software de reconocimiento facial

La sede tecnológica mundial es la primera ciudad de EEUU que da el paso. La tecnología se mantendrá en el aeropuerto y el puerto, zonas bajo control federal.

Videocámara de vigilancia en San Francisco, California.
Videocámara de vigilancia en San Francisco, California. Getty Images

En San Francisco las cámaras de seguridad que dependen del ayuntamiento no serán inteligentes. Sus imágenes no pasarán a una base de datos donde un software medirá al milímetro las distancias entre los rasgos del rostro de una persona para compáralos con millones de otros en un banco de datos. Una ley aprobada la semana pasada prohíbe el uso de los sistemas de reconocimiento facial por parte de los organismos municipales, incluidas las fuerzas de seguridad. “En el mundo se nos considera la sede mundial de la tecnología, y esto conlleva una responsabilidad para los legisladores municipales”, explicaba el impulsor de la normativa, Aaron Peskin. “Tenemos más responsabilidad que nadie a la hora de regular los excesos de la tecnología precisamente por ello”.

El pulso que la capital históricamente antisistema lleva ya años librando con los avances tecnológicos que buscan estrenarse en sus calles se ha saldado con un revés para los segundos, al menos de momento. Con siete votos a favor y solo 1 en contra, la ley Paremos la vigilancia secreta (Stop Secret Surveillance) fue aprobada por el consejo de supervisores de la ciudad (un organismo similar a una diputación provincial con poder legislativo). La ley no solo prohíbe el uso de tecnología de reconocimiento facial en las zonas públicas, sino que también se reserva el derecho a decidir, en el futuro, sobre la aplicación de cualquier otra tecnología de vigilancia como la lectura de matrículas de coches.

Defensores de los derechos civiles como la Unión de Libertades Civiles de EEUU (ACLU en sus siglas en inglés) han aplaudido la medida, mientras que otros expertos la ven como una reacción desproporcionada contra una tecnología que tiene muchas aplicaciones beneficiosas. El sindicato de policía, como era de esperar, ha protestado. Tony Montoya, su presidente, se ha mostrado ”preocupado porque esta decisión puede tener consecuencias negativas para las investigaciones y persecución del crimen”. San Francisco no es solo sinónimo de progresismo y tecnología: también tiene serios problemas de seguridad. “Aunque entiendo que la tecnología de reconocimiento facial no es precisa al 100%, está mejorando día a día, y creo que se ha demostrado muy útil a la hora de encontrar al menos pistas en investigaciones criminales”, dijo Montoya a los medios la semana pasada.

Pero ciudades como la vecina Oakland en California o Somerville, en Massachussets están planeando prohibiciones similares. E incluso a nivel federal hay una ley pendiente de votación que quiere prohibir a las compañías que usan esta tecnología vender o almacenar los datos biométricos de sus usuarios.

Más información
El proyecto de reconocimiento facial de Nueva York que ha sido un fracaso absoluto
El Gran Hermano se consolida en conciertos y eventos deportivos

“La medida es importantísima, y un paso en la dirección adecuada. Que sea San Francisco la primera ciudad en aprobar una ley así es sintomático y espero que sirva para que otras ciudades sigan su ejemplo”, explica a RETINA Luke Stark, investigador especializado en justicia, transparencia, responsabilidad y ética en tecnologías digitales que trabaja en el Centro de Investigación de Microsoft en Montreal. “Esta ley demuestra que los gobiernos, y la sociedad, pueden y deben tomar medidas para protegerse frente al avance de determinados usos de la tecnología”.

En cambio, otros ven en esta decisión un síntoma descorazonador de que los gobernantes no quieren jugar un papel activo en la implementación de tecnologías que, bien utilizadas, pueden mejorar mucho la vida de los ciudadanos. “El gobierno tiene mucha mayor capacidad de regulación y vigilancia que el sector privado, y esta es una oportunidad perdida para establecer unas exigencias a la tecnología de reconocimiento facial. Prohibirla sin más no les permite participar en su desarrollo y trabajar para que funcione de la manera deseada”, afirma a Retina Daniel Castro, vicepresidente de la Fundación para la Tecnología de la Información y la Innovación (IITF en inglés), con sede en Washington. 

Una tecnología no tan incipiente

La tecnología de reconocimiento facial, una de las áreas de la inteligencia artificial con mayor potencial de crecimiento, está ya presente en nuestras vidas. No sólo en esas aplicaciones futuristas que permiten al iPhone más reciente desbloquearse con solo con verte la cara, o en los filtros de Snapchat o Instagram que aciertan siempre dónde colocar unas orejas de perro o unas gafas de sol. El programa de fotos en el ordenador que es capaz de encontrar todas las fotos en las que sale esa tía para la que estás preparando una tarjeta de felicitación, o la manera en que FB te ayuda a reconocer amigos en una foto, son aplicaciones de esta tecnología en su versión más lúdica y amable.

Programas de inteligencia artificial mucho más sofisticados y entrenados para leer el rostro humano y convertirlo en una serie de unos y ceros están en marcha en diferentes ciudades del mundo con el propósito de protegernos. Desde el sistema que Taylor Swift  ha admitido que pone en marcha en sus conciertos (para alertar sobre la proximidad de esos fans tóxicos que están dispuestos a todo para acercarse a ella); hasta el que en los aeropuertos alerta de la presencia de un sospechoso cuya fisionomía cuadra con alguien en una lista de peligrosos terroristas. En el mercado se comercializan más de cien sistemas que aplican algoritmos propios o ajenos, y que la oficina del departamento de comercio de EEUU se encarga de analizar y valorar periódicamente. 

“En los últimos dos años esta tecnología ha avanzado increíblemente hasta permitir identificar en tiempo real sospechosos como el atacante del periódico de Annapolis el año pasado. En el terreno del tráfico de personas y de niños desaparecidos está dando ya resultados”, explica Castro. “Es simplemente una herramienta para hacer de manera mucho más rápida y eficaz una cosa que las fuerzas del orden ya hacen diariamente, que es intentar localizar sospechosos en diferentes bancos de datos para identificarlos”.

Conspiranoia

Pero no hace falta ser muy conspiranoico para entender que el uso de esta tecnología puede fácilmente degenerar y tomar derroteros distópicos. Primero, porque la tecnología parece, de momento, preocupantemente desequilibrada en favor de determinadas fisionomías. Estudios en EEUU sobre algunos de los softwares más avanzados apuntan a obvias diferencias de precisión entre rostros caucásicos y afroamericanos

“No es una tecnología fiable ni precisa. Comete muchos errores, y desproporcionadamente, además, con comunidades ya de por si estigmatizadas”, argumenta Stark, autor de un estudio en el que compara el reconocimiento facial ni más ni menos con el uso de plutonio. “Pero es que aunque fuera una tecnología perfecta, el hecho de medir y categorizar sistemáticamente algo como el rostro humano es inherentemente problemático. Incluso aunque nuestra sociedad no fuera racista, este tipo de sistemas la haría serlo”.

Los problemas a los que alude Stark tienen que ver con el análisis facial, una rama distinta de la del reconocimiento, argumenta Castro. “Es cierto que esos estudios mostraban errores en el algoritmo a la hora de distinguir si una cara es de una mujer o un hombre, por ejemplo. Pero eso no es para lo que usan las fuerzas del orden estos sistemas. Los usan para identificar a determinado sospechoso en una base de datos”, explica. En todo caso, él cree que son errores fácilmente subsanables y que las compañías ya están en ello.

Otra cuestión es qué sucede cuando se pone al servicio de objetivos o gobiernos no democráticos como China. En la región occidental china de Xinjiang, las autoridades usan las cámaras y el reconocimiento facial, según denunciaba el New York Times recientemente, para diferenciar a los habitantes de la etnia uigur e inventarse excusas de supuestos delitos que estos cometen para meterlos en campos de re-educación. Otros países han mostrado interés en la tecnología china, de Ecuador a Pakistán, y parecen dispuestos a adoptarla. “Yo creo que no hay duda de que EE UU no es China y de que tenemos una Constitución. En todo caso, no es un problema de la tecnología en sí sino de cómo se utiliza, como con tantas otras cosas”, defiende el vice presidente del IITF.

Adoptada casi en secreto

En cuanto al uso por parte de un estado de derecho, el principal problema es lo poco que se sabe realmente sobre dónde y cómo se está usando. No es que sea secreto, pero los organismos que implementan la tecnología no lo suelen anunciar públicamente. El Centro de Privacidad y Derecho de la facultad de derecho de la universidad de Georgetown está realizando un trabajo de investigación departamento a departamento en todo EEUU y de momento ha encontrado que las policías de Las Vegas, Orlando, San Jose, San Diego, Nueva York, Boston, Detroit y Durham tienen alguna versión de reconocimiento facial en marcha. El departamento de justicia de California, por ejemplo, adquirió el software de la empresa NeoFace en 2017 por el módico precio de dos millones de dólares.

En diciembre del año pasado, Algorithmic Justice League y el Centro de Privacidad y Derecho de Georgetown propusieron el Safe Face Pledge, una especie de acuerdo para que las compañías que desarrollan este software se comprometan a no venderlo a las fuerzas de seguridad hasta que haya leyes que regulen su uso. Pero ninguna de las grandes compañías lo ha firmado de momento. El negocio, al fin y al cabo, promete ser el más lucrativo dentro del mercado de seguridad de vídeo que supone ya más de 18.000 millones de dólares al año en EE UU.

“Siempre ha habido cierta resistencia social y oficial a los avances tecnológicos. Al principio, los vehículos a motor, por ejemplo, no podían entrar en las ciudades. Creo que al final la ciudadanía entenderá que son sistemas que ayudan a mayor seguridad, que ayudan a las fuerzas del orden a mantenerlo. Esta prohibición no va a poner freno a una tecnología que avanza rápidamente”, zanja Castro.

“Quizá en el futuro se pueda aplicar en casos concretos y después de ser aprobada específicamente para dicho caso”, opina Stark, comparando un uso posible del reconocimiento facial con la manera en que hoy en día, por ejemplo, se solicita a un juez pinchar un teléfono para una investigación concreta. San Francisco ha optado de momento por esta vía restrictiva. Muchos parecen dispuestos a seguir su ejemplo. Mientras tanto, el sector privado sigue avanzando en su desarrollo y aplicación.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_