_
_
_
_
_

¿Está triste o alegre?

La informática afectiva quiere conocer el estado de ánimo de los usuarios de ordenador

Un consumidor probando el nuevo Windows
Un consumidor probando el nuevo WindowsElaine Thompson (AP)

En el sótano de una escuela de El Cairo dos docenas de mujeres analizan expresiones faciales en ordenadores portátiles y entrenan a estos para que reconozcan la ira, la tristeza y la frustración.

En la Universidad de Cambridge, una cabeza robótica inquietantemente realista llamada Charles se sienta en un simulador de conducción frunciendo las cejas, con aspecto interesado o confuso.

Y este otoño, en unas cuantas aulas estadounidenses del primer ciclo de secundaria, los ordenadores analizarán las emociones de los estudiantes para comprobar cuándo están perdiendo el interés por las lecciones o entusiasmándose con ellas.

Nace un nuevo acercamiento a la tecnología llamada informática afectiva, cuyo fin es dar a los ordenadores la capacidad de leer las emociones de los usuarios o cómo les afectan las cosas

Los tres son ejemplos de un nuevo acercamiento a la tecnología llamada informática afectiva, que tiene como fin dar a los ordenadores la capacidad de leer las emociones de los usuarios o cómo les afectan las cosas.

A las personas se les da bien comprender las emociones de los demás. Nos damos cuenta de que este no es un buen momento para acercarse al jefe o de que alguien a quien queremos tiene un mal día. Pero, hasta hace poco, nuestras máquinas ni siquiera eran capaces de identificar emociones aparentemente simples como la ira o la frustración. El dispositivo GPS pita alegremente incluso cuando el conductor está a punto de tirarlo por la ventana. La clase a través de Internet sigue adelante aunque la mitad de los estudiantes estén perdidos en la confusión. La tecnología que controle esas habilidades también podría ayudar a las personas que tienen dificultades para leer las emociones de los demás, como aquellas con un trastorno autista, u ofrecer compañía y ánimo a los residentes de los hogares de ancianos. Algunos investigadores sostienen que, si no pueden identificar las emociones, los ordenadores nunca alcanzarán todo su potencial para ayudar a las personas.

“Nuestro mundo digital está en su mayor parte desprovisto de formas ricas de expresión de nuestras emociones”, dice Rosalind Picard, directora del grupo de investigación en informática afectiva del Laboratorio de Medios de Comunicación del Massachusetts Institute of Technology. Lleva más de dos décadas trabajando en el modo de traducir las emociones en unos y ceros, el lenguaje de las máquinas.

¿Realmente queremos que nuestras cuentas de Facebook o los anuncios de Internet sepan cómo nos sentimos en cada momento?

Uno de sus primeros proyectos, realizado en colaboración con Rana el Kaliuby, consistió en diseñar unas gafas para personas con síndrome de Asperger, una variante leve del autismo, que las avisaba cuando estaban aburriendo a alguien. Las personas con Asperger suelen tener fijación con temas determinados y para ellas es difícil captar los indicios sociales.El prototipo llevaba un semáforo diminuto, visible únicamente para el portador, que se ponía amarillo cuando la conversación empezaba a hacerse pesada y rojo cuando quien escuchaba había desconectado por completo.

Más recientemente, Picard y el El Kaliuby desarrollaron programas que representan gráficamente 24 puntos de la cara para intuir una emoción. En el pasado, los algoritmos informáticos tenían dificultades para distinguir las sonrisas genuinas de las forzadas o los dientes apretados que acompañan a la frustración, explica El Kaliuby, porque solo producen cambios muy pequeños en el aspecto general de la cara. Para captar estas sutilezas, las cámaras web tenían que contar con velocidades secuenciales y resoluciones altas que no han sido posibles hasta hace poco.

La cabeza robótica construida en la Universidad de Cambridge es una creación de Peter Robinson, catedrático de tecnología informática, que un día se enfadó porque su dispositivo GPS no dejaba de meterle en un atasco tras otro mientras lanzaba pitidos sin parar. ¿Y si pudiese diseñar un copiloto robótico capaz de detectar el estado de ánimo y alejar a los conductores de los atascos cuando tuviesen prisa o se sintiesen angustiados? Charles es la primera iteración de un intento de juzgar cómo reacciona la gente a los distintos grados de realismo en una máquina.

La informática afectiva tiene buenas intenciones pero hace que surjan dudas acerca de lo que la sociedad espera de la tecnología. ¿Realmente queremos que nuestras cuentas de Facebook o los anuncios de Internet sepan cómo nos sentimos en cada momento?

Además, la tecnología afectiva siempre se verá limitada por nuestra propia capacidad para interpretar las emociones, advierte Arvid Kappas-, catedrático de investigación en la Universidad Jacobs de Bremen, Alemania.“La relación entre lo que mostramos en nuestro rostro y lo que sentimos es muy variable”, señala.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_