La cara oculta del reconocimiento facial
La comunidad matemática debe analizar cuestiones éticas y qué sectores resultan favorecidos por el uso de los diferentes algoritmos y cuáles, por el contrario, se ven vulnerados
En la actualidad existe un gran debate sobre el uso de algoritmos en diversos ámbitos, como la seguridad en internet, los sistemas de vigilancia o la segmentación de clientes. Con frecuencia, la problemática se centra en cómo se deben usar los algoritmos, soslayando un análisis profundo de las diferentes realidades que dan forma a estos modelos –y en las que, a su vez, estos influyen–. En este sentido, una pregunta fundamental que con frecuencia queda siquiera sin formularse es: ¿de qué manera están implicados los diferentes actores, incluyendo la comunidad matemática, en las cuestiones éticas que rodean el uso de los algoritmos?
Entre los algoritmos más controvertidos se encuentran los de reconocimiento facial, capaces de identificar caras humanas y/o sus características. Estos modelos se han empleado con objetivos muy diferentes, desde la autenticación de usuarios a la identificación de personas involucradas en actividades ilegales. Además, se utilizan en sistemas de control de usuarios, en teoría para prevenir situaciones potencialmente peligrosas.
Estos algoritmos se basan en conceptos matemáticos y, en algunas de sus versiones más sencillas, se pueden describir en términos accesibles. El modelo se entrena usando una base de datos de fotografías de caras, y su objetivo consiste en inferir la probabilidad de que una nueva imagen corresponda a alguna de las existentes. Esto, matemáticamente, se corresponde con el problema de, dado un punto cualquiera, determinar su cercanía a otro de un conjunto prefijado –los de la base de datos–, en un espacio de muchas dimensiones.
Las fotos se traducen a matemáticas en términos de vectores. Una imagen está formada por píxeles, o puntos de color. Para fotos en blanco y negro, cada píxel está codificado por un número entre 0 y 255 que describe su intensidad de gris, donde 0 significa “negro” y 255, “blanco”. Si las fotos en cuestión contienen 250*150 píxeles, entonces cada imagen está representada por un vector de 250*150=22.500 números entre 0 y 255. Así, se reinterpreta el espacio de todas las caras como un espacio vectorial de 22 500 dimensiones, cuyo manejo supone una seria dificultad computacional.
Si el archivo inicial de fotos consta de 200 fotos, entonces se tienen 200 vectores –o, equivalentemente, puntos– en un espacio de 22 500 dimensiones. Pero no interesan las imágenes en sí, sino la variación –llamada covarianza– entre ellas. Estos cambios se pueden describir –con sencillos argumentos algebraicos– dentro de un subespacio de una dimensión mucho menor y, por lo tanto, mucho más manejable. Así, es posible reducir el problema a proyectar la base de datos de partida a este subespacio y, cuando aparece una foto nueva, considerar su proyección y calcular la menor distancia entre este punto y los anteriores. Esta cara más cercana será la que el algoritmo dará como posible reconocimiento de la cara nueva.
Pese a que el algoritmo es comprensible desde un punto de vista teórico, cuando se confronta con las situaciones reales en las que se aplica aparecen sus enormes limitaciones
Pese a que el algoritmo es comprensible desde un punto de vista teórico, cuando se confronta con las situaciones reales en las que se aplica aparecen sus enormes limitaciones. Por ejemplo, la precisión del algoritmo depende de la exactitud con que la base de datos inicial represente la totalidad de las características faciales humanas. Una investigación reciente demuestra que incluso el software de reconocimiento facial más puntero puede errar en la identificación de mujeres negras hasta en un 35% de las ocasiones, mientras que funciona de manera casi perfecta en el caso de hombres blancos. Esto tiene consecuencias extremadamente peligrosas, como la falsa acusación y arresto de Robert Julian-Borchak Williams, y puede contribuir a las ya elevadas tasas de violencia de la policía de Estados Unidos hacia la población no blanca.
Pero no se trata únicamente de los posibles errores de los algoritmos. De hecho, se plantea la siguiente pregunta fundamental: si los modelos pudieran ser mejorados hasta tener una precisión del 100%, ¿sería entonces ético su uso y circulación? Nuestra postura es que, incluso en esta situación hipotética, la respuesta no es automáticamente “sí”, sino que está condicionada a que los algoritmos no se usen para crear –o agravar– situaciones de abuso de poder. Debido a su papel central en el diseño e implementación de estos modelos, la comunidad matemática en su conjunto debe hacer un análisis profundo sobre estas cuestiones éticas y sobre qué sectores resultan favorecidos por el uso de los diferentes algoritmos y cuáles, por el contrario, se ven vulnerados.
Tarik Aougab es profesor en el Haverford College (Estados Unidos).
Javier Aramayona es científico titular del Consejo Superior de Investigaciones Científicas en el Instituto de Ciencias Matemáticas (ICMAT).
Ágata A. Timón G. Longoria es coordinadora de la Unidad de Cultura Matemática del ICMAT.
Café y Teoremas es una sección dedicada a las matemáticas y al entorno en el que se crean, coordinado por el Instituto de Ciencias Matemáticas (ICMAT), en la que los investigadores y miembros del centro describen los últimos avances de esta disciplina, comparten puntos de encuentro entre las matemáticas y otras expresiones sociales y culturales y recuerdan a quienes marcaron su desarrollo y supieron transformar café en teoremas. El nombre evoca la definición del matemático húngaro Alfred Rényi: “Un matemático es una máquina que transforma café en teoremas”.
Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.