_
_
_
_

“La vigilancia de China podría ser menos nociva que la de Google”

La investigadora, experta en filosofía y ética de la inteligencia artificial, valora con algo de optimismo y mucha cautela los cambios de estrategia de IBM y Amazon en cuanto al reconocimiento facial

Catherine Stinson, experta en filosofía y ética de la inteligencia artificial
Catherine Stinson, experta en filosofía y ética de la inteligencia artificial

Catherine Stinson saca una clara conclusión de su experiencia como profesora de Historia y Filosofía de la Ciencia en la Universidad de Bonn: “Nadie conoce la historia de la ciencia y ahora estamos viendo los resultados de esto”. La investigadora, experta en filosofía y ética de la inteligencia artificial advierte de las oscuras raíces decimonónicas presentes en las tecnologías del momento y de la importancia de conocer bien sus implicaciones para, como siempre, evitar repetir la historia.

P. IBM anuncia que abandona el reconocimiento facial, Amazon prohíbe a la policía estadounidense usar sus aproximaciones a esta tecnología... ¿Cómo valora estas decisiones?
R. Es difícil saber qué pensar ahora mismo. Obviamente, están actuando en respuesta a las protestas que están ocurriendo en Estados Unidos. Muchas compañías están haciendo estas muestras de solidaridad. ¿Hasta dónde llegan? No está claro. Podría pasar que Amazon dejara de vender tecnologías de reconocimiento facial a la policía solo durante un año e incluso que siguiera desarrollándolas en este periodo. Habrá que esperar para ver si realmente es un movimiento significativo.

Parece positivo y mucha gente lo está celebrando como una victoria para quienes han estado tratando frenar el crecimiento del reconocimiento facial, especialmente en su uso por parte de fuerzas de seguridad y gobiernos.

P. ¿Veremos otras empresas siguiendo este camino?
R. Ahora mismo parece que está de moda hacerlo. Supongo que no hay muchas más compañías que estén en la vanguardia del reconocimiento facial, así que solo unas pocas pueden hacer un manifiesto de este tipo. Un lugar en el que ciertamente se está desarrollando esta tecnología, no se sabe con qué propósito, es Facebook. Esta es una de las que falta en la lista.
P. Si estos compromisos fueran reales, ¿diría que son una buena manera de abordar los riesgos asociados al uso del reconocimiento facial?
R. Creo que es un buen primer paso y un reconocimiento público de que se ha escuchado lo que se ha venido diciendo sobre los puntos críticos de la tecnología de reconocimiento facial. Es algo que intento celebrar, aunque sea de forma recelosa.
P. ¿Cuál sería el siguiente paso?
R. Estamos bajo vigilancia, se recurra o no al reconocimiento facial. Creo que la gente se inclina a aceptar las cámaras porque crean una ilusión de que vamos a estar más seguros si tenemos grabaciones y podemos retroceder y ver exactamente lo ocurrido. Pero hay muchas maneras en las que no necesariamente nos dan más seguridad. ¿De quién es la grabación? ¿Quién tiene acceso a ella? Además, está la cuestión de los deep fakes. En el futuro no vamos a poder depender tanto del vídeo.
P. En China, cámaras y vigilancia son parte inseparable de la vida pública...
R. Lo que China está haciendo con esta tecnología no es tan diferente de lo que hacen empresas como Amazon, Google y Facebook. Google en particular tiene una red de vigilancia bastante grande solo con Google Maps. Cualquiera que conduce a un lugar desconocido dice a Google donde está, y también están sus coches conduciendo por el mundo y sacando fotos de todo. Existe una amplia y profunda red de vigilancia que Google ha estado construyendo durante mucho tiempo. Y esto no es tan distinto de lo que hace China.

Una gran diferencia es el propósito. Al menos en China se supone que se usan para el bien común. Y al margen de que estemos de acuerdo con esa visión paternalista que tienen de cómo el bien común debe imponerse, al menos buscan eso. No como Google, cuyos objetivos son enriquecer a algunas personas que ya son ridículamente ricas. La vigilancia de China podría ser menos nociva que la de Google.

P. En un reciente artículo profundizaba en la relación que las tecnologías de reconocimiento facial parecen tener con disciplinas como la desacreditada frenología, que durante el siglo XIX proclamaba la posibilidad de determinar las facultades mentales y rasgos personales de un individuo a partir de la forma de su cráneo. ¿Están resucitando esos prejuicios?
R. No creo que llegaran a irse. Es alarmante que se estén literalmente reinventando pseudociencias del siglo XIX que han sido repudiadas durante mucho tiempo y que la gente usa como un ejemplo de la mala manera de hacer ciencia. Más gente debería conocer la historia de la ciencia, especialmente en el sector tecnológico. Ahora parece que hay más apertura a la formación en ética e historia en el campo de la ingeniería y las ciencias de la computación, pero durante décadas ha habido una resistencia activa a esto.

Con suerte, no es demasiado tarde para las próximas generaciones, pero sí parece que hace falta algún tipo de reeducación para la gente que no accedió a esto. Y no solo en Estados Unidos o en China, porque se están publicando un montón de estudios de este tipo. Cada par de semanas aparece algún ejemplo.

P. Por otra parte, señalaba que no deberíamos llamar frenología al reconocimiento facial sin saber lo que está en juego.
R. Me molesta esa vaga acusación que puede ser malinterpretada. Si alguien no sabe lo que es la frenología, el insulto no funciona. Y no creo que ahora tengamos que ponernos a leer un puñado de libros del siglo XIX. Pero si somos más específicos en qué es lo que está mal con estas tecnologías es más útil. Sería algo mejor referirse a ello como eugenesia, porque es algo con lo que la gente está más familiarizada y en lo que está más claro cuál es el problema.
P. ¿Son estas tecnologías más propensas a acabar dañando a la gente?
R. Uno de los peligros es que es más difícil asignar culpas o responsabilidades cuando es una máquina la que lo hace. Es más difícil señalar a la máquina y decir que lo que está haciendo es político, sesgado o discriminatorio, porque existe una respuesta preestablecida: "Es solo un algoritmo. Los algoritmos no son racistas. Solo son matemáticas".

Hay un amplio margen para la imaginación en cuanto al daño que podría hacerse con esto. Lo más reciente que he visto en este sentido fue una aplicación que te hace más atractivo, y su manera de conseguirlo es hacerte parecer más blanco, más pálido, con una nariz más pequeña... Esto es lo que siempre hace este tipo de tecnología.

P. ¿Son fenómenos aislados?
R. Definitivamente no. Hay muchos ejemplos similares. Prácticamente todos los años hay algún caso que no solo es enviado, sino que también se acepta en las grandes conferencias. Además, hay empresas privadas desarrollando este tipo de cosas: sistemas de reconocimiento facial que supuestamente son capaces determinar la etnicidad de alguien a partir de su cara. En China se están usando para determinar quién es de la etnia Han y quien no; para detectar quiénes no son parte de la mayoría étnica. Y compañías de otros lugares están desarrollando cosas parecidas. No me queda nada claro para qué propósito legítimo podría utilizarse esto.
Más información
Guía definitiva del reconocimiento facial: qué pueden hacer con tu cara y qué no
La fiabilidad del reconocimiento facial, en duda

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_