ArchivoEdición impresa

Acceso a suscriptores »

Accede a EL PAÍS y todos sus suplementos en formato PDF enriquecido

lunes, 26 de diciembre de 2011
Tribuna:

Tecnología del reconocimiento facial

La Red parece estar apartándose de la mentalidad del 'opt-out' (habilitar salvo que se diga que no) en favor de la mentalidad del 'opt-in' (no habilitar a menos que se dé permiso)

Archivado en:

¿Por fin ha madurado Google? El cuidado con el que ha manejado la tecnología del reconocimiento facial parece sustentar esa tesis. Compárenlo con Facebook. Cuando el pasado junio la red social de Zuckerberg desveló su tecnología del reconocimiento facial se vio envuelta en una violenta reacción de la privacidad universal. Pero Google ha evitado esa fatalidad: hace pocas semanas hizo pública una tecnología que es capaz de identificar automáticamente a tus amigos en fotos subidas a Google +; y casi nadie se dio cuenta.

Las diferentes reacciones son fáciles de explicar: Facebook posibilitó esa prestación para todos los usuarios sin pedirles su permiso, mientras que Google la dispuso como una herramienta opcional. Facebook podría estar ahora en vísperas de adoptar también ese modo más cortés de propuesta: su reciente acuerdo con la Comisión Federal de Comercio estipula que todos los futuros cambios en los controles de privacidad existentes requerirán el consentimiento del usuario.

Esta herramienta puede ser objeto de abusos con facilidad. Internet no debe ser una zona sin ética

No dejemos a las compañías de Internet libres de culpa

La Red parece estar apartándose de la mentalidad del opt-out (habilitar salvo que se diga que no) propia del intimidador: "sabemos que a usted le gustará esta aplicación, así que la habilitaremos por defecto", en favor de la mentalidad del opt-in (no habilitar a menos que se dé permiso), propia del diplomático persuasivo: "hola, verifique esta nueva aplicación, pero solo si usted lo desea". Como demuestra la adopción por parte de Facebook del "compartir sin fricciones" una cosa es obligarnos a compartir alterando nuestros parámetros de seguridad y otra muy distinta persuadirnos de que compartir es algo que realmente queremos hacer. Lo primero es una ofensa; lo segundo merece celebrarse.

Y, sin embargo, ese triunfo del opt-in no es todo lo que parece ser. Aunque ciertamente es menos coercitivo, todo opt-in hace que la tecnología subyacente -en este caso, el reconocimiento facial automático- parezca normal y aceptable. Pero ninguna compañía tecnológica lo admitirá. "La decisión está totalmente en manos del usuario". "Todo consiste en dar más control a los usuarios". "No forzamos a nadie; la gente puede mantenerse al margen". Este tipo de insulsa retórica sobre "otorgar poder al usuario" ha sido durante décadas una característica básica del evangelio de Silicon Valley. Se funda en la ingenua creencia de que las tecnologías son solo herramientas y que su impacto es más bien escaso y limitado a la consecución (o no) de la tarea en cuestión. Así, si los usuarios quieren utilizar la Herramienta X para realizar la Tarea Y el único asunto a debate es la conveniencia de la Tarea Y. El hecho de que una ampliaaceptación de la Herramienta X pueda provocar también un imprevisto Efecto Z nunca preocupa a los que lo instrumentan o, si lo hace, simplemente lo descartan como algo imponderable.

Por desgracia, tal razonamiento pasa por alto el hecho de que las tecnologías, además de servir para sus funciones inmediatas, tienen también su impacto ecológico, con el que pueden transformar entornos, ideologías, usuarios, relaciones de poder e incluso otras tecnologías. Aunque los coches puedan ser un medio perfectamente útil para ir desde el Punto A al Punto B, uno no debería centrarse solamente en esa característica y no tener en cuenta de qué modo la cultura del automóvil en general pueda estar afectando a la calidad e incluso a las formas de vida urbana, o a los índices de contaminación, o a las estadísticas de mortalidad. Centrarse en los usos inmediatos de un artefacto -independientemente de que sean opt-in u opt-out- parece una pobre manera de gobernar su complejidad.

De un modo similar, suponer que una determinada tecnología no es problemática porque sus usuarios pueden desconectarla parece descaminado. ¿Por qué no se tiene en cuenta la posibilidad de que, una vez que un número suficiente de gente opta por utilizarla, la aceptación colectiva de esa tecnología puede transformar drásticamente el entorno social, haciendo difícil o imposible su falta de uso? Una vez que un número suficiente de californianos optaron por utilizar el coche, algo cambió -a nivel tanto de infraestructuras públicas como normativo-, lo que en buena medida hace de California un lugar completamente inhóspito para vivir sin coche. El coche todavía nos lleva desde el Punto A al Punto B, pero ¿no sería nuestra calidad de vida mucho mejor si intentásemos anticiparnos a sus efectos colaterales desarrollando una idea más polifacética de la tecnología automovilística?

Volviendo al asunto de las tecnologías de reconocimiento facial automático, digamos lo que sabemos al respecto: que esa tecnología puede ser objeto de abusos con facilidad; un motor de búsqueda que genera los nombres de las personas a partir de sus rostros sería muy bien acogida por los dictadores, más que interesados en poder reprimir cualquier protesta popular. También sabemos que la tecnología del reconocimiento facial ha penetrado en diversos estratos sociales. Es una manera popular de proteger nuestros teléfonos inteligentes y ordenadores portátiles. Se utiliza en diversas consolas de videojuegos para crear una experiencia de juego más personalizada. Se utiliza para averiguar (¡y en tiempo real!) el número de clientes masculinos y femeninos en los bares. Y la lista continúa.

Esos usos aparentemente inocuos engendran una generación de incipientes negocios que buscan dar nuevos usos a esa tecnología, no todos ellos inocuos aunque varios de ellos previstos por sus críticos. Naturalmente, para cuando el público en general toma conciencia de ello, esa tecnología se halla tan profundamente implantada en nuestra cultura que es demasiado tarde para hacer nada.

En cierto sentido nos encontramos ante un proceso que es más perverso que la popular noción del "efecto mariposa", esa idea de que el batir de alas de una mariposa en Brasil puede desencadenar un tornado en Tejas. Llamémosle el "efecto Palo Alto": un despreocupado usuario en Palo Alto, California, que se decide por el opt-in y utiliza la tecnología del reconocimiento facial de Google acaba fortaleciendo a un dictador en Damasco. ¿Por qué "perverso"? Porque el usuario de Palo Alto, a diferencia de la mariposa, siempre puede pensárselo antes, pero prefiere no hacerlo.

¿Qué se puede hacer? Bien, podemos hacer caer de lleno la responsabilidad ética sobre los usuarios de Internet y concienciarles acerca de las últimas (aunque indirectas) consecuencias de sus opciones. Existen muchos precedentes al respecto. Crecientes preocupaciones sobre desigualdad económica, cambio climático y trabajo infantil han hecho emerger el movimiento del "consumo ético", que pretende que los consumidores tomen en consideración las ramificaciones éticas que acarrea su conducta en el mercado.

En una línea parecida, ¿por qué no pensar en aplicar conceptos similares a nuestro compromiso con Internet? ¿Qué implicaría una "navegación ética" o participar en "redes sociales éticas"? ¿No utilizar nunca sitios que se aprovechan de la tecnología del reconocimiento facial? ¿Negarse a comerciar con las compañías de Internet que cooperan con la Agencia de Seguridad Nacional? Esas son las decisiones que tendremos que tomar si no queremos que Internet se convierta en una zona sin ética. Después de todo, el uso irreflexivo de la tecnología -lo mismo que el shopping irreflexivo- no hace de nadie un modelo de buen ciudadano.

Pero tampoco dejemos a las compañías de Internet libres de culpa. Naturalmente, Google y Facebook son diferentes de las codiciosas corporaciones que explotan a los agricultores pobres o a los menores. Ninguna de las dos compañías está creando herramientas de vigilancia para que sean utilizadas por dictadores. Lo que hacen, sin embargo, es ayudar a crear la pertinente infraestructura técnica e ideológica para que tales herramientas surjan de un modo aparentemente natural. Lo cual no proporciona sólidos fundamentos para su regulación, pero abre las puertas al activismo ciudadano, a los boicoteos, y, como último recurso, a la desobediencia civil.

Las compañías de Internet saben perfectamente bien que han contraído responsabilidades. Este mismo año, Eric Schmidt, presidente ejecutivo de Google, tildó a la tecnología de reconocimiento facial de "escalofriante" y expresó su preocupación acerca de la misma. Y, sin embargo, Google acaba de refrendar esa tecnología, si bien con la salvedad del opt-in. Esto, cree Google, les protege de cualquier acusación de comportamiento poco ético; al fin y al cabo, todo depende del usuario. Pero ¿acaso nos convencerían las compañías petroleras de que cualquiera que estuviera preocupado por el cambio climático no tiene que conducir un Humvee? Quizá no. Al pretender que no saben cómo acaba esta triste película es cuando se hace evidente la gran metedura de pata ética de las empresas tecnológicas.

Evgeny Morozov es visiting scholar en la Universidad de Stanford y profesor en la New America Foundation. La edición española de su libro La desilusión de Internet será publicada por Destino en junio de 2012. Traducción de Juan Ramón Azaola.

Atención al cliente

Teléfono: 902 20 21 41

Nuestro horario de atención al cliente es de 9 a 14 los días laborables

Formulario de contacto »

Lo más visto en...

» Top 50

Webs de PRISA

cerrar ventana