Cuando el arte enseña emociones a la IA
Resulta necesario vincular más estrechamente los campos científico y creativo en el desarrollo de la inteligencia artificial, pues la expresión de los sentimientos está inevitablemente ligada a la subjetividad humana
Uno de los grandes retos de la inteligencia artificial (IA) es aprender cómo siente la especie humana. La ciencia del estudio de las emociones se ha desarrollado ampliamente a lo largo de la historia. La Retórica de Aristóteles ya planteaba la capacidad de persuadir a través del manejo emocional, y su clasificación de siete emociones básicas ha sido clave para la evolución de esta ciencia. Otros investigadores, como Duchenne, Darwin o Ekman han profundizado y teorizado sobre el comportamiento emocional del ser humano. Ekman creó un sistema denominado FACS (por las siglas en inglés de Sistema de Codificación Facial) que ha sido fundamental para el desarrollo de las aplicaciones de aprendizaje automático. Su idea era reemplazar el trabajo de los artistas en la representación de la vida interior de las personas, desprendiéndola del carácter subjetivo que pudiera apreciarse en el proceso creativo.
Sin embargo, otras líneas de investigación del comportamiento humano se han acercado más a las prácticas artísticas, centrándose en la creación de obras de arte para generar un catálogo de emociones. Por ejemplo, la Universidad de Standford ha creado una herramienta denominada ArtEmis que está entrenada para leer expresiones emocionales de grandes obras de arte. Con una inmensa base de datos, el algoritmo se entrena para comprender que cada parte de una obra de arte puede generar una emoción distinta, y que a su vez esta puede cambiar en cada persona. Para los creadores de ArtEmis, el arte es un elemento esencial para entrenar la IA en las emociones humanas.
También los museos utilizan la IA para conocer la respuesta de sus visitantes, y los comisarios de exposiciones para generar contenidos. El arte contemporáneo es otra de las herramientas utilizadas para provocar respuestas emocionales. Los experimentos en esta línea buscan desarrollar la idea de que la IA sea capaz de provocar emociones que favorezcan determinados comportamientos humanos, como inspirar creatividad o pensamiento innovador.
Según el profesor de Psicología de la Universidad de Princeton Alexander Todorov, las emociones fueron descubiertas antes por los artistas que por los científicos. Esta teoría tiene una fuerte presencia en el desarrollo tecnológico. La Universidad de California Berkeley ha puesto en marcha un programa de trabajo con científicos para determinar las emociones que ha generado la creación artística a lo largo de la historia y de las culturas. Así, ha podido clasificar 25 emociones diferentes, muchas más de las que Aristóteles llegó a catalogar.
Pero no siempre las expresiones faciales reflejan un estado de ánimo. Es muy fácil para cualquier persona falsear una emoción o sentir algo sin expresarlo con una mueca o un gesto. Recordemos el debate histórico sobre la sonrisa de la Mona Lisa y la cantidad de especulaciones y teorías que se han llegado a publicar. Esta afirmación pondría en cuestión los estudios de Ekman y ha generado numerosa literatura científica a favor y en contra. Para el profesor Crivelli, de la Universidad Montfort de Leicester, confiar en una expresión facial para catalogar una emoción sería como medir la masa en metros.
A pesar de la dificultad de relacionar una expresión con una emoción, el futuro reglamento europeo sobre inteligencia artificial ha clasificado el análisis de las emociones como una tecnología de “riesgo mínimo o bajo”. En cambio, las recomendaciones de compra de los algoritmos en las redes sociales han recibido la calificación de “riesgo alto”. Esta situación contrasta con la preocupación que genera en Estados Unidos el control de la población a través de las emociones. El senador demócrata Ron Wyden, uno de los legisladores responsables de la regulación americana en este campo, ha señalado en numerosas ocasiones el riesgo que supone para los derechos civiles una clasificación errónea de las emociones.
Relacionado con el respeto de los derechos, el uso de tecnologías de reconocimiento facial para el control de las minorías está siendo una de las cuestiones más polémicas. Como ejemplo, podemos citar el plan llevado a cabo por el Gobierno chino con la minoría uigur. Amparándose en la política de seguridad, el Gobierno chino lleva a cabo un programa de vigilancia centrado en el reconocimiento de emociones. La tecnología utilizada está especializada en el reconocimiento facial con clasificaciones en base a la etnicidad de cada persona. De esta manera, se pueden generar bases de datos personales que identifiquen el comportamiento diario de cada individuo, sus inclinaciones políticas, sus amistades, aficiones o inquietudes. Estamos ante un hecho real más allá de cualquier distopía orwelliana.
En conclusión, es necesario vincular de manera más estrecha los campos de la ciencia y el arte pues la expresión de las emociones está inevitablemente ligada a la subjetividad del ser humano. La creación artística generada a través de esta experiencia es única y no podrá ser sustituida, por lo menos en un breve plazo.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.