La galería de los horrores de la inteligencia artificial
Tiene el potencial para cambiar el mundo, pero no necesariamente a mejor. Pasen y vean las aplicaciones más siniestras que hemos inventado hasta ahora
Cuando nos ponemos agoreros con la inteligencia artificial, solemos pensar en el futuro. En lo que se nos viene encima si no domamos bien a los algoritmos que queremos que tomen decisiones por nosotros. Sin embargo, las cosas ya se han puesto siniestras. Así lo ve el investigador David Dao, parte del grupo DS3, dedicado al estudio y desarrollo de sistemas y servicios de datos en la Universidad Politécnica de Zúrich (ETH Zúrich).
Según Dao, "la inteligencia artificial en su estado actual es injusta, fácilmente susceptible a ataques y notoriamente difícil de controlar". En este contexto, su principal preocupación es la constante proliferación de aplicaciones de esta tecnología fuera de los márgenes de lo que podría considerarse ético.
Para poner de manifiesto este problema, Dao ha confeccionado -y continúa actualizando- un directorio bautizado como Awful AI (inteligencia artificial espantosa). Esta lista es un retrato cada vez más detallado de las injusticias que ya pueden perpetrar estos sistemas en la sociedad. "Espero que Awful AI pueda ser una plataforma para espolear el debate y el desarrollo de tecnologías con las que contraatacar", sentencia el investigador. Repasamos algunas de las pesadillas orwellianas seleccionadas por Dao (y te recomendamos algunas lecturas sobre el tema).
- Discriminación
- ¿Tienes cara de criminal?
Según dos investigadores de la universidad de China, podrías. Xiaolin Wu y Xi Zhang crearon una red neuronal capaz de identificar al 89,5% de una muestra de criminales y no criminales por sus rasgos faciales. Las implicaciones de un sistema así incendiaron medios y redes hasta el punto de que los investigadores actualizaron su estudio para defenderse. "Nuestro trabajo está enfocado a la discusión académica, cómo ha llegado a los medios es una sorpresa total para nosotros. Aunque estamos de acuerdo con nuestros críticos en la necesidad e importancia de crear políticas de investigación en inteligencia artificial para el bien de la sociedad, estamos profundamente desconcertados por el modo en que se ha representado nuestro trabajo". - Un polígrafo en tus viajes por Europa.
Para la Unión Europea, es un detector de mentiras que agilizará el tráfico en las fronteras externas. Para Dao, una potencial fuente inagotable de falsos positivos que además será propensa a sesgos raciales. El proyecto, llamado iBorderCtrl cuenta con más de 4 millones de euros de financiación y estará en desarrollo hasta agosto de este año.
- Manipulación, desinformación y fakes
- Deep Fakes.
Ya te hemos hablado de esta técnica de síntesis de imágenes que emplea redes neuronales para generar caras de personas reales o ficticias pero siempre muy creíbles. También te hemos contado cómo podría usarse para generar material pornográfico falso. ¿Te parece poco preocupante? - Ingeniería de la atención.
No es casualidad que cada vez te resulte más difícil despegarte de tus pasatiempos digitales. Están diseñados para atraparte y cada vez lo hacen mejor. "Desde las notificaciones de Facebook hasta los autoplays de Youtube [...]. Las empresas devoran nuestra psicología para su propio beneficio", señala Dao.
- Vigilancia
- Predicción de protestas.
Las imágenes satelitales y el análisis de redes sociales ya están al servicio del Pentágono en lo relativo a las previsiones de desobediencia civil. "Ya hay indicios de que estas tecnologías se están usando para localizar manifestaciones anti-Trump, grupos de izquierda y activistas de color", precisa el investigador. - Gran Hermano en todas partes.
Dao pone los ejemplos de SenseTime y Megvi, dos tecnologías de análisis de vídeo que descritas así parecen inocuas, pero en realidad son potentes sistemas de reconocimiento facial que hasta ofrecen la posibilidad de centrar la vigilancia en objetivos concretos.
- Plataformas engañosas y fraudes
- Robots vende-humo.
En la última temporada brotan como setas robots capaces de comportamientos que hasta ahora solo habíamos visto en la ciencia ficción. ¿Pero son tan avanzados como parecen? Dao pone el ejemplo de Sophia, la autómata que ha dado la vuelta al mundo gracias a Hanson Robotics. "Estas plataformas se están usando para representar falsamente el estado actual de la inteligencia artificial", advierte. - La Fundación Terrible.
Tal es el nombre de la entidad que presentó a Zach. Un sistema de inteligencia artificial de sospechoso origen que, aseguraban, era capaz de escribir informes médicos mejor que los doctores de carne y hueso. La susodicha fundación está ahora en liquidación, con un reguero de acusaciones de estafa por el camino y Zach en el olvido.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.