Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra

¿Pueden ‘hackear’ mi cara para robarme el iPhone?

Apple incorpora el reconocimiento facial en su nuevo teléfono. Pero varios programas replican con precisión los rasgos de cualquier persona y su forma de hablar

Philip Schiller, vicepresidente de Apple, presenta la identificación de cara del iPhone X.
Philip Schiller, vicepresidente de Apple, presenta la identificación de cara del iPhone X. AFP

Apple presentó el pasado 12 de septiembre su iPhone X, sin duda uno de los dispositivos más esperados del mercado. Lo hizo en un acto cargado de simbolismo, en el nuevo teatro Steve Jobs, en una sede concebida por Norman Foster y por el propio genio fundador antes de su muerte, en 2011. Todo eran promesas de innovación y vanguardia en el diseño y en las capacidades de su recién nacida joya. Entre las utilidades que estrena el smartphone destaca Face ID, su nueva herramienta de seguridad, basada en el reconocimiento de la cara del dueño de cada terminal. “Las posibilidades de que alguien pudiese desbloquear nuestro teléfono con Touch ID [la anterior prueba de verificación de Apple, a través de la huella dactilar, en teoría cinco veces más segura que un código de cuatro dígitos] eran de una entre 50.000. Con Face ID son de una entre un millón”, resumía sobre el escenario Phil Schiller, vicepresidente de Apple. Resulta que nuestra cara, el elemento más expuesto y reconocible de nuestra anatomía, es la mejor técnica de ciberseguridad hasta el momento. O no. El gigante de Cupertino ha trabajado duro para hacer de Face ID un instrumento creíble. Pero otros han caído antes que él.

La novedad de Apple parece ir en línea con el mercado, que ve en la identificación biométrica un mecanismo con futuro, sobre todo para las plataformas de pagos a través del móvil. La consultora especializada Juniper Research calcula que este año se realizarán 2.000 millones de transacciones mediante este tipo de autenticación, el triple que en 2016. Las principales compañías del sector ya lo están aplicando: Apple Pay (que ahora añadirá a la huella dactilar el reconocimiento facial), Samsung Pay, Android Pay o las distribuidoras HCE (los sistemas de réplica de la tarjeta de crédito en el móvil para pagos por comunicación inalámbrica NFC), que están añadiendo la identificación dactilar. Mastercard tiene el Identity Check, coloquialmente conocido como selfie check, mientras que Visa y PayPal también tienen habilitados desbloqueos biométricos para sus transacciones. Entre los bancos, el Santander fue el primero en incorporar la opción de pagos con reconocimiento de voz, y a su estela ya se han sumado grandes entidades como Wells Fargo o ING.

No valdrá con una foto

La tendencia parece imparable, pero existen amenazas. La última gran estrella de la biométrica en móviles era el escáner de iris del Samsung Galaxy S8, el último modelo de la compañía coreana, el gran competidor de iPhone. Los hackers del Chaos Computer Club (la mayor agrupación de piratas informáticos de Europa) demostraron que solo se necesitaba una cámara de fotos con modo noche, una impresora y una lentilla cualquiera para timar al teléfono. El reconocimiento facial tiene un importante historial de derrotas. En 2009 un investigador de la firma de ciberseguridad vietnamita Bkis mostró las vulnerabilidades de este sistema en ordenadores de Lenovo, Toshiba y Asus con solo mostrar frente a sus cámaras fotografías de alta definición de los propietarios. En 2015 el escritor y experto en tecnología Dan Moren desmontaba la verificación de caras del coloso chino del comercio Alibaba con un vídeo de cinco segundos en el que se le veía a él pestañeando.

Engañar a Face ID, al parecer, no va a ser tan sencillo. El vicepresidente Phil Schiller presumía de todas las pruebas que habían hecho, y de que el teléfono podría reconocer la cara de su dueño incluso en la oscuridad, gracias a sus sensores infrarrojos. El iPhone X proyecta un haz de 30.000 puntos de luz para capturar la cara del propietario, y en la puesta a punto de la herramienta le pide que se gire para tener una imagen tridimensional. Ya no valdrá con una foto. Marc Rogers, experto en ciberseguridad de la firma Cloudfare reconocido internacionalmente por exponer las debilidades de numerosos sistemas [entre ellos Touch ID, la verificación dactilar de iPhone previa a su último modelo], comentó la presentación de su nueva némesis en directo a través de Twitter. Lo primero que piensa hacer es imprimir su cara en 3D y ver si esa máscara pasa el test. De hecho, la firma alemana SR Labs pirateó así en 2015 el reconocimiento facial tridimensional de Microsoft, Hello, con máscaras de un material no revelado que imitaba el impacto de la luz en la piel humana.

Así desbloquearon los miembros de Chaos Computer Club la identificación biométrica de Samsung.

Tú gesticulas, Putin lo copia

Apple sabe que ese es un posible camino para tirar abajo Face ID. “Nuestro equipo trabajó con creadores profesionales de máscaras y artistas del maquillaje de Hollywood para impedir suplantaciones de identidad”, revelaba Schiller, que sentenciaba que solo aquellos con un “gemelo malvado” deberían preocuparse de añadir un código de desbloqueo. Buena parte de la tecnología de reconocimiento que incorpora el iPhone X ya se pone en práctica en la meca del cine. Disney consideró que Peter Cushing, el actor que interpreta al villano Wilhuff Tarkin en la mítica primera entrega de la saga Star Wars, era irremplazable aunque hubiese muerto en 1994. Decidió clonar su cara y su voz digitalmente y ponerlos en el cuerpo de otro actor para Rogue One, la última película hasta el momento del universo de George Lucas. El resultado es tan bueno que casi asusta.

El profesor Matthias Niessner de Stanford es uno de los padres de Face2Face, un programa de edición de vídeo que permite sustituir la cara del objetivo por la de cualquier persona, y que la recreación responda con naturalidad y mucha precisión a los gestos que hace el usuario. Las demostraciones de este programador alemán presentan a personajes como George W. Bush, Donald Trump o Arnold Schwarzenegger realizando muecas impropias de sus comportamientos habituales, pero totalmente creíbles. Niessner apareció en el conocido late night de Jimmy Kimmel y en un par de minutos logró transformar la cara del carismático presentador en la de la leyenda del baloncesto Karl Malone o el excampeón del mundo de los pesos pesados Mike Tyson. La tecnología de escaneado que utiliza su software es muy similar a la del Face ID de Apple: “Utilizamos redes neuronales [una rama de la inteligencia artificial] para crear un modelo de la cara a partir de la información de los sensores”, explica junto al resto de autores en el desarrollo teórico de su herramienta.

Disney clonó la cara y la voz de Peter Cushing para 'Rogue One'. Este es el resultado.

Face2Face y otros sistemas de clonación digital de rostros, como el de Disney Research, podrían ser utilizados para vulnerar el reconocimiento facial. “Los mecanismos biométricos están siendo revisados para comprender realmente cómo puede afectar la generación sintética de datos, caras o voz artificial, por ejemplo”, asegura Alfonso Muñoz, profesor del máster de seguridad en tecnologías de la información y las comunicaciones de la Universidad Europea (UEM). Muñoz señala también que una modificación sutil de datos reales “puede tener un importante impacto en la seguridad”, y cita una investigación de octubre de 2016 en la que científicos de Carnegie Mellon consiguen engañar a dispositivos de reconocimiento de caras y hacerles creer que un hombre de unos 40 años es la actriz Milla Jovovich con solo colocarle unas falsas gafas fabricadas a tal efecto. Si el nuevo iPhone da lo que promete será capaz de esquivar estas trampas, e incluso podrá reconocer a su dueño así cambie de peinado, vello facial, maquillaje o accesorios. Como muy tarde se espera que su seguridad esté probada o refutada para el próximo diciembre, cuando tenga lugar el congreso anual de hackers de Chaos Computer Club.

Face2Face es un proyecto de investigadores de Stanford para copiar caras con precisión.

Clona tu voz

La idea de utilizar datos creados por una inteligencia artificial para engañar un sistema de seguridad basado en otra inteligencia artificial está considerada una de las principales amenazas que combatir desde ya. “La tendencia es utilizar algoritmos y machine learning para generar datos sintéticos que engañen no solo a software de reconocimiento si no, incluso, si esta deriva sigue igual, a confundir al ser humano”, profundiza el profesor Muñoz. Esas son las intenciones de Lyrebird, una app capaz de clonar voces humanas. El pasado 4 de septiembre esta start-up canadiense surgida de la Universidad de Montreal lanzó una versión avanzada de pruebas para que cada usuario pudiese copiar su propia voz y publicaron demostraciones de su tecnología. “Los Estados Unidos están considerando, además de otras opciones, cesar toda relación comercial con países que tengan negocios con Corea del Norte”, se escucha decir a Donald Trump. Es una reproducción de un tuit del presidente estadounidense. Suena raro, como si hablase por teléfono y un poco robótico. Pero el hecho de que una máquina, a partir de no demasiados registros de cualquier persona, pueda llegar a copiar con cierta precisión su modo de hablar, despierta no pocas preocupaciones.

“Lyrebird y otras aplicaciones podrían engañar a sistemas de verificación que solo tengan en cuenta rasgos de la voz”, teoriza Vijay Balasubramaniyan, CEO de Pindrop, una de las empresas punteras en el mundo en autenticación vocal. Pindrop trabaja con algunas de las mayores multinacionales (principalmente bancos y aseguradoras) para evitar el fraude telefónico o la suplantación de identidad en los servicios de atención al cliente, que según la propia compañía causa cerca de 12.000 millones de euros de pérdidas a las empresas. Balasubramaniyan ideó la tecnología de Pindrop, que analiza 147 aspectos de distinta índole de cada llamada telefónica para comprobar su autenticidad.

Si nos atenemos al habla, Lyrebird o VoCo, el “Photoshop de la voz” presentado por Adobe (la compañía responsable del propio Photoshop) a finales de 2016, pueden llegar a engañar a un humano o a una inteligencia artificial. Pero la voz no lo es todo. “En Pindrop analizamos la voz y el cómo se produce [el habla y sus características fisiológicas], pero también además el dispositivo utilizado y el tipo de llamada y el comportamiento del usuario”, desarrolla el programador indio. “En el caso de Lyrebird logran un resultado muy creíble pero no pasaría nuestro filtro. La voz del Trump real viene del diafragma, pasa por sus cuerdas vocales, tiene una nasalidad… Todo eso podemos medirlo y en el caso de sistemas de gestación digital de datos no se tiene en cuenta, se va directamente al resultado final. Haciendo el proceso inverso, para que las palabras de Trump las pronunciase una persona tendría que tener un cuello de más de un metro de longitud”, aclara Balasubramaniyan.

El proceso de verificación de Pindrop evalúa desde dónde se realiza la llamada, a través de qué tipo de sistema telefónico e incluso cómo se presionan las teclas en caso de que se interactúe con el clásico asistente robótico. Cotejan eso con su historial de datos y si encuentran algo extraño, saltan las alarmas. “Las llamadas tienen ADN, no es lo mismo llamar desde Nigeria que desde Reino Unido. El sonido es distinto, el establecimiento de conexión también. Y si la estafa pretende realizarse con un software, no marca los números igual que un ser humano”, amplía Balasubramaniyan. El método es perfectamente aplicable para cualquier identificación de voz, se trata de reforzar la biométrica con más capas tecnológicas: “En este futuro será crucial una aproximación de seguridad multifactorial para asegurar los dispositivos. La biométrica sola no es suficiente. Incorporar elementos como el aprendizaje automático es la fórmula para evitar que ciertos ataques proliferen”.

Las compañías y los expertos imaginan un futuro en el que la ciberseguridad es cada vez más fuerte, y a la vez más transparente y sencilla para los usuarios: “Se trata de hacer más usable la tecnología. Las medidas de protección siempre han sido vistas como algo que impide el funcionamiento más natural de los dispositivos. El objetivo es hacer que la interacción sea cada vez más simple. Habrá mecanismos de seguridad más robustos combinando varios mecanismos cada vez más invisibles”, vaticina Alfonso Muñoz, que cree que las posibles fracturas de seguridad en biométrica no se convertirán en una gran amenaza, y que reforzarán la tecnología, ya que la inteligencia artificial se diseña para aprender de sus propios errores. Al final, como remarca Marc Rogers, no se trata de lograr un método perfecto, sino uno suficiente: “Usamos cerraduras en nuestras casas, que también pueden ser forzadas, porque en la mayoría de los casos con eso basta”.

Con el apoyo de Obama

“Cada vez más compañías se desplazan hacia nuevas tecnologías, más fuertes, para verificar la identidad de los usuarios. Como la biometría. Porque es demasiado fácil para los hackers averiguar contraseñas como... ‘contraseña’. O ‘1, 2, 3, 4, 5… 7’. Esos son algunos de mis anteriores passwords. Los he cambiado desde entonces”. Barack Obama encadenaba carcajadas como el mejor cómico de Saturday Night Live ante el público de un congreso sobre ciberseguridad en la Universidad de Stanford, en el corazón de Silicon Valley, en febrero de 2015. Un año después se ponía más serio para anunciar un aumento de más de 4.000 millones de euros en el presupuesto de protección digital de la administración y la creación del Consejo Federal de Privacidad, para defender la intimidad de la ciudadanía en la red. Su campaña se completó con una tribuna en el Wall Street Journal en la que animaba a la población a “ir más allá de las contraseñas añadiendo capas de seguridad como una huella dactilar”. El entonces presidente de los Estados Unidos apostaba con convicción por la biometría (el uso de rasgos físicos como los dedos, el iris, la voz o la cara para reconocer identidades) para combatir “una de las mayores amenazas para la economía y la defensa nacional”.

Alfonso Muñoz

Más información