La publicidad inteligente
Los sensores conectados a pantallas, cámaras y monitores permitirán acceder a datos emocionales mucho más útiles para los anunciantes que las pistas textuales que los gigantes de Internet obtienen de nuestra navegación
Una de las quejas tradicionales sobre la ascensión de intermediarios digitales como Google y Facebook es que, con su entusiasmo descarado por la personalización, han provocado una desagradable polarización de la esfera pública. Como aíslan a los ciudadanos de las opiniones contrarias, corremos el peligro de pasar nuestras vidas en lo que el escritor Eli Pariser denomina “la burbuja de los filtros”.
Pero la burbuja de Pariser no es sino una entre muchas más en el horizonte. Para empezar, tiene un origen técnico muy concreto: hasta hace poco, los sensores que intervenían en el proceso de personalización podían registrar nuestros golpes de teclado y nuestros clics, pero no detectar nuestros sentimientos. El mero hecho de llamarlos “sensores” puede ser excesivo, porque eran más bien pistas. Nuestro historial de navegación podía utilizarse para predecir qué páginas podíamos querer visitar a continuación. O nuestras búsquedas podían servir para dar prioridad a ciertos resultados en búsquedas futuras.
Ahora bien, sin que la mayoría de nosotros lo viera, en los últimos años se ha producido un gran cambio estructural: los sensores responsables de la personalización ya no son solo textuales, sino que pueden capturar muchas otras dimensiones de nuestras actividades. No se limitan a almacenar las URL y las búsquedas, sino que también pueden gestionar datos no lingüísticos, desde indicadores neurofisiológicos (¿estamos quemando demasiadas pocas calorías?) hasta emocionales (¿nos sentimos inquietos o excitados?).
Pensemos solo en dos productos que han figurado recientemente en la prensa especializada en tecnología: un coche que reduce la velocidad cuando siente que el conductor no está prestando atención y una mesa que vigila cuántas calorías quema una persona y ajusta su altura de acuerdo con ello. Por supuesto, el coche movido por la atención no es más que un prototipo que requiere que el conductor lleve un casco especial, pero podemos imaginar cómo unos sensores incorporados al volante podrían hacer que captar la atención fuera más fácil (Toyota experimentó ya ese tipo de sensores en 2011, y Ford ha probado unos monitores de latidos integrados en el asiento del conductor).
Ya hay un coche que baja la velocidad cuando siente que el conductor no presta atención
La mesa, por el contrario, es un producto ya existente (aunque caro y selecto). A diferencia de las mesas convencionales, esta pretende involucrar al usuario a base de “cambiar las cosas a lo largo del día, subiendo un par de centímetros poco a poco”. Unida a los datos capturados por todos los demás sensores presentes en nuestras vidas, la mesa puede convertir nuestro aburrido lugar de trabajo en un aparato de ejercicios. El director ejecutivo de la empresa que la fabrica dice que están incluso pensando “importar datos externos para que la mesa sea más inteligente; por ejemplo, de monitores de actividad física. Si la mesa se entera de que una persona ha corrido cinco kilómetros antes de ir a trabajar, modificará su perfil de actividad y cambiará sus sugerencias para esa mañana”.
Este fenómeno al que me estoy refiriendo no es exactamente “tecnología inteligente”; es más bien “tecnología plástica”. La repentina plasticidad de nuestro entorno físico quizá no sea muy preocupante desde el punto de vista de las políticas públicas, pero las posibilidades de hacer mal uso de estas tecnologías son numerosas. Si nuestros dispositivos y nuestros aparatos pueden adaptarse a nuestros sentimientos, ¿qué pasa con la publicidad?
Hace unas semanas me encontré con un documento recién publicado, de título aburrido pero contenido fascinante: CAVVA: Computational affective video-in-video advertising (Publicidad computacional afectiva de vídeo dentro de un vídeo). Escrito por tres informáticos de Singapur, el ensayo propone un elegante método para insertar anuncios en vídeos basándose en un análisis detallado del contenido emocional del vídeo principal, más eficaz que depender de las pistas puramente “textuales” sobre relevancia que utilizan hoy servicios como YouTube.
Nuestros reguladores no están preparados para abordar los retos de los datos no lingüísticos
La limitación que tiene este método es que selecciona qué anuncios mostrar y cuándo mostrarlos en función del contenido emocional del vídeo, no el “contenido” emocional del usuario. Está claro, pues, que el siguiente paso es estudiar qué sienten los usuarios en cada momento. Se puede hacer estudiando sus expresiones faciales mientras contemplan el vídeo, o midiendo el pulso, o siguiendo los movimientos del ojo.
Algunas empresas nuevas están explorando ya este terreno tan lucrativo. Un reportaje reciente en The Wall Street Journal menciona brevemente a Mediabrix, una empresa especializada en “selección emocional patentada”. ¿Cómo lo hacen? Pues estudian a la persona que está utilizando un videojuego y en su momento de más vulnerabilidad emocional le presentan publicidad de un producto. Como es natural, no lo cuentan así: dicen que la empresa ayuda a “llegar a los jugadores en momentos naturales y críticos del juego, cuando son más receptivos a los mensajes de marca”. Con la proliferación de sensores en nuestro entorno construido —ya sea bajo el eslogan del “Internet de las cosas” o bajo el de “ciudad inteligente”—, el alcance de esa “selección emocional patentada” aumentaría de forma considerable.
Todo esto quizá habría parecido una fantasía hace 10 años, pero ya no lo es hoy, cuando Google tiene sus propias gafas inteligentes y Apple ha introducido en el último iPhone el M7, un poderoso chip con sensor de movimiento (como dijo el responsable de marketing de Apple en su presentación, “aprovecha todos esos grandes sensores y los mide continuamente”, de modo que, incluso en reposo, el iPhone puede decir si el usuario está “parado, corriendo, andando o conduciendo”). Da la impresión de que Google y Apple llegan un poco tarde: el año pasado, Microsoft obtuvo la patente de “anuncios selectivos basados en la emoción” (que menciona su dispositivo detector de movimiento Kinect). Samsung tiene un montón de patentes similares para tecnologías que van desde facilitar el intercambio de emociones en las redes sociales hasta emitir fragancias en teléfonos móviles.
Todo esto quizá
habría parecido una fantasía hace 10 años, pero ya no lo es
Si el futuro de la publicidad está en el tratamiento de rasgos no lingüísticos, quien controle la infraestructura sensorial para analizarlos y monetizarlos —el “sistema de compartir emociones”, como lo llama Samsung en una de sus patentes— será el sucesor de los actuales magnates de la publicidad en Internet. A pesar de las afirmaciones sobre lo inevitable de que todo se vuelva virtual, los equipos —conectados a pantallas, cámaras y monitores de datos— cobrarán cada vez más importancia, porque permitirán acceder en el mismo momento a datos emocionales dinámicos que son mucho más útiles para la publicidad que las pistas textuales que los gigantes de Internet obtienen de nuestra navegación, nuestras búsquedas y nuestros “amigos”.
Decir que nuestros reguladores —tan preocupados por los problemas de privacidad asociados a la obtención y el almacenamiento de datos textuales— no están preparados para abordar los retos de los datos no lingüísticos y basados en las emociones es decir poco. Las técnicas como la “selección emocional patentada” plantean dilemas que van mucho más allá de la preocupación por la intimidad; en cierto sentido, son el espaldarazo definitivo a los temores recurrentes sobre “persuasores ocultos” que inundan la publicidad desde hace decenios.
Esos temores no parecían muy dignos de tenerse en cuenta cuando todo el mundo veía los mismos anuncios al mismo tiempo. No parecían dignos de tenerse en cuenta cuando Google y Facebook aparecieron en escena, porque los anuncios eran previsibles y podíamos bloquearlos. Pero la publicidad basada en emociones y totalmente individualizada que podría haber en un mundo en el que cualquier superficie “inteligente” que toquemos puede imaginar lo que sentimos y mostrarnos un anuncio relacionado con nuestro estado debería hacernos pensar.
Evgeny Morozov es profesor visitante en la Universidad de Stanford y profesor en la New America Foundation.
Traducción de María Luisa Rodríguez Tapia.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.