_
_
_
_
_
Firma invitada

La inteligencia artificial tiene una deuda contigo

Los modelos de 'deep learning' usan tus datos para aprender. Les está saliendo gratis, se lucran con ellos y quizás te quiten el trabajo en el futuro. Necesitamos desarrollar métodos de compensación en torno al aprendizaje automático

Getty Images

Las fronteras entre el mundo digital y el mundo físico han caído hace tiempo. Vivimos conectados a nuestro móvil. Los muros de las redes sociales son visitados por más personas que las plazas municipales y nuestras vidas están influenciadas por decisiones tomadas por algoritmos. Para bien –decisiones médicas críticas–, para fines más dudosos –influencia política- o simplemente para optimizar ciertos procesos, como encontrar un taxi o robar segundos de tu atención.

Muchos de estos algoritmos se alimentan de los datos que cada uno de nosotros y nuestras vidas producen -el big data- que, junto con el aumento de la capacidad de computación, han permitido la explosión actual de la inteligencia artificial (IA). Este término fue propuesto por primera vez sin mayor fanfarria en la conferencia de Dartmouth de 1956 por John McCarthy, Marvin Minsky, Nathan Rochester, y Claude Shannon (probablemente el científico más infravalorado del siglo XX). Hoy el concepto IA se presenta en una nebulosa al alcance de la comprensión de unos pocos, aun cuando está en boca de científicos, empresarios, políticos y periodistas. Estamos en un punto de inflexión sobre su uso, y es importante desmitificarla, que sepamos qué es realmente y decidamos como sociedad qué queremos de ella.

Ilustración de Javier Centelles

En los últimos años una familia de algoritmos llamada deep learning ha revolucionado el campo de la IA. Ha batido todos los récords distinguiendo fotos de perros y gatos en internet, traduciendo idiomas o ganando al juego de mesa ancestral Go. Sin embargo, el deep learning no es magia. Y de inteligencia hay poco. El deep learning es como una fábrica de máscaras de escayola. ¿Cómo funciona?

Un millón de personas se ponen en la cola de la fábrica. El artesano de la fábrica pone un molde de escayola húmeda en la cara del primero de la fila –una chica joven-. La escayola se moldea según sus rasgos. Llega la segunda persona –esta vez un chico-. El artesano pone un segundo molde para hacer la cara del chico. Llega una tercera persona; es una chica. El artesano coge el molde inicial que aún está húmedo y se lo pone a la nueva chica, de manera que la máscara tiene rasgos comunes a la primera y a la tercera persona -las chicas-.

Y así sucesivamente. El artesano va moldeando dos máscaras mientras la escayola está aún húmeda, una de hombre y otra de mujer. Una vez que la cola ha terminado, el artesano deja secar las dos máscaras promedio hasta que están listas para su uso. A partir del día siguiente, un sistema de IA hecho de las máscaras servirá para abrir automáticamente la puerta de unas oficinas. Cada vez que llegue alguien a las oficinas se probará las máscaras y la puerta solo se abrirá si la cara del visitante encaja en una de las dos que se han moldeado -por ejemplo, solo las mujeres podrán entrar-.

Esta metáfora describe exactamente cómo funcionan las redes neuronales deep learning. La IA para reconocimiento facial no es más que un molde que literalmente guarda los rasgos comunes de los píxeles de las fotos que le mostremos de una determinada clase: hombre o mujer, blanco o negro, perro o gato, o los rasgos faciales de la población de Oviedo, Nueva York, París o Kampala.

En este proceso es importante distinguir varios conceptos y su correspondencia metafórica:

  1. Las personas que pusieron su cara – sus datos- para crear la máscara. Cuantos más datos, mejor caracterización tendrá la máscara.
  2. La fábrica de máscaras, que necesita del artesano. Las herramientas del artesano son los algoritmos. Lo interesante es que la mayoría de las herramientas son código abierto, están disponibles sin coste alguno en internet. Sin embargo, solo unos pocos expertos (los artesanos) en grandes empresas y del ámbito académico son capaces de usarlas. Y no porque sea muy complicado, sino por la falta de un plan para que mucha más gente pueda acceder a esa formación.
  3. Las máscaras – los modelos- que se crean con esos algoritmos. Una vez creadas, las máscaras se pueden usar fuera de la fábrica –no requieren de maquinaria especial- de manera muy sencilla y casi gratis: pueden usarse para abrir puertas, desbloquear el teléfono móvil o cobrar sin pasar por caja en un supermercado.
Más información
El Gobierno impulsa un código ético para domar los algoritmos
Carme Artigas: “El dato va a ser la nueva moneda”

Hace unos meses, empleados de una multinacional de IA enviaban una carta a su CEO donde argumentaban que no debían delegar las responsabilidades éticas de las tecnologías que desarrollaban. La fábrica puede crear máscaras que se acoplan a un dron y lo transforman en un pequeño misíl guiado por máscaras de reconocimiento facial. Una máscara aplicada sobre una lectura de tu ADN puede identificar que probablemente desarrolles una enfermedad letal. ¿Es razonable que, en base a esa lectura, ninguna aseguradora te haga un seguro de salud?

El aspecto ético debe de estar presente en toda la cadena de la IA, no solo en el propósito del uso de la máscara. Imaginemos que queremos crear una máscara para decidir qué currículum seleccionar para la entrevista de entre miles de candidatos que quieren trabajar en nuestra empresa. Para crear la máscara, usamos los datos de la gente que la empresa ha contratado y han triunfado en el pasado, así la máscara tendrá el patrón del empleado perfecto. Ese empleado resultaría ser un hombre, puesto que en la empresa hay más hombres que mujeres y la máscara que hemos creado ha identificado el género masculino como parte del patrón de empleado perfecto. La máscara de selección de currículums discriminará por género. Las máscaras (los modelos) son el espejo de los datos que se usan para entrenar al sistema de IA. Solo eso.

Hace unos meses compartí una semana con 1.000 estudiantes de doctorado en IA de todo el mundo. Sorprendentemente –o no- la ética y el impacto social de la IA no salieron a debate en ningún momento. Igual que las médicas o los enfermeros, los ingenieros y científicas de datos deberían suscribir un código hipocrático con principios éticos. Y siendo muy prácticos, formaciones de ética deberían de ser obligatorias tanto en la academia como en las empresas.

Propongo que aquellos cuyas acciones valgan para entrenar modelos sean compensados cada vez que se usen”

Probablemente la mayor amenaza para la democracia como la conocemos sean los vídeos deep fake: vídeos generados por IA que parecen totalmente reales y están basados en millones de vídeos de archivo accesibles desde internet. Esta herramienta permitirá muy pronto (antes de las próximas elecciones de cualquier país en el que estés pensando) crear, por ejemplo, un vídeo con apariencia totalmente real donde el político escogido esté diciendo exactamente las palabras que el creador del artificio quiera. Será la evolución de las fake news que utiliza también el vídeo: todo puede ser mentira.

Las máscaras se pueden empaquetar fácilmente, puesto que no necesitan de la fábrica ni de artesanos para ser usadas. Se podrían comprar y vender en el supermercado. Una máscara, una vez fabricada, no tiene apenas costes por usarla o mantenerla. Así que el modelo de negocio sobre el que se quieren basar inicialmente las empresas de IA es cobrar por cada vez que usas la máscara.

Pongamos a 1.000 camareros en la cola de la fábrica. Esta vez vamos a crear una máscara que capture los movimientos necesarios para poner una caña -una máscara dinámica o robot-. Después de estudiar a los 1.000 camareros podemos poner a la máscara a servir cervezas en un bar. De hecho ya no harán falta más camareros, puesto que tenemos robots a los que no hay que pagar. El conocimiento de los camareros se ha codificado en la máscara y ahora los camareros son prescindibles.

Los médicos del sistema sanitario español dedican muchos minutos a introducir datos en formularios que también son colas en la fábrica de máscaras. ¿Y a quién pertenecerán estas máscaras? A las empresas que recopilan esta información -en ocasiones las que simplemente deberían dar soporte informático- , cuando deberían ser, en parte, del sistema público, de los médicos y de los pacientes.

El que haya amasado suficientes datos para fabricar una máscara tendrá el poder de replicar una acción de manera casi gratuita. Esto dará una ventaja sin parangón a los primeros en llegar, algo de lo que empresas y algunos gobiernos son conscientes. Lo que algunos ya han descrito como la nueva guerra fría.

¿Deberían los camareros recibir una compensación cada vez que se use la máscara (poner una cerveza) que se entrenó con sus datos? ¿Deberían los médicos recibir compensación cada vez que la IA detecte un tumor basado en los diagnósticos que ellos hicieron en el pasado?

Mi propuesta va más allá de que las empresas de IA recojan gratis tus datos o paguen por tus datos una sola vez. Propongo que aquellos cuyas acciones valgan para entrenar modelos (crear máscaras) deberían de ser compensados CADA VEZ que se usa la máscara. Cada vez que el robot camarero ponga una cerveza, parte del pago por esa cerveza irá destinado a aquellos camareros cuyos datos enseñaron al robot. Una especie de royalties, o sistema de derechos de autor similar al que existe en la industria musical cuando escuchamos una canción online. Pero con cualquier sistema de IA basado en entrenamiento de redes neuronales. Un mecanismo para ensalzar la creatividad y la relevancia humana, redistribuir parte del aumento de productividad producido por la IA e intentar ecualizar un mundo cada vez más desigual.

La carrera por hacerse con las máscaras sin nada a cambio ya ha empezado.

Miguel Luengo-Oroz es chief data scientist de UN Global Pulse, un laboratorio de ideas de Naciones Unidas que usa el big data y las tecnologías emergentes para actuar en contextos de desa­rrollo y crisis humanitarias.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_