Yoshua Bengio: “En la era digital deberían prohibirse los anuncios políticos, como los de tabaco”
El informático franco-canadiense, Premio Turing 2018, cree que el aprendizaje profundo, disciplina a cuyo desarrollo ha contribuido significativamente, puede poner en peligro la democracia
“La inteligencia artificial es en realidad muy estúpida. A día de hoy es menos capaz que un ratón”. El profesor Yoshua Bengio (París, 1964) desliza esta reflexión nada más empezar la conversación con EL PAÍS, acostumbrado quizás a que se magnifiquen las posibilidades de esta tecnología. El caso es que las investigaciones de este franco-canadiense han permitido mejorarla mucho. Su trabajo fue reconocido en 2018 con el Premio Turing, considerado el Nobel de la informática, por su contribución al desar...
Regístrate gratis para seguir leyendo
Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
“La inteligencia artificial es en realidad muy estúpida. A día de hoy es menos capaz que un ratón”. El profesor Yoshua Bengio (París, 1964) desliza esta reflexión nada más empezar la conversación con EL PAÍS, acostumbrado quizás a que se magnifiquen las posibilidades de esta tecnología. El caso es que las investigaciones de este franco-canadiense han permitido mejorarla mucho. Su trabajo fue reconocido en 2018 con el Premio Turing, considerado el Nobel de la informática, por su contribución al desarrollo de las redes neuronales profundas. Estas redes neuronales son el modelo más aplicado en el avance del llamado aprendizaje automático o deep learning, la rama de la inteligencia artificial con mayor proyección de los últimos años.
Las inquietudes del doctor Bengio van más allá de los avances puramente científicos que lidera desde la Universidad de Montreal. Le preocupan las consecuencias que pueda tener la tecnología en la que trabaja sobre el mundo real. Prueba de ello es su colaboración con la iniciativa CodeCarbon, que pretende inferir la huella climática de los algoritmos. “Ahora estamos tomando las decisiones que marcarán el curso de los próximos años”, apunta. Sus resquemores son también de carácter filosófico: teme que la inteligencia artificial pueda dañar la democracia. En su opinión, hace falta más regulación.
Pregunta. ¿De qué es capaz hoy en día el aprendizaje automático?
Respuesta. Se usa en muchos sectores, sobre todo para hacer predicciones o clasificaciones. El ejemplo más simple es reconocer el contenido de las imágenes o de vídeos: objetos, animales, rostros humanos… Estas aplicaciones son muy útiles en medicina, por ejemplo. Otro bloque tiene que ver con el uso del lenguaje por parte de los ordenadores. La traducción automática todavía no es como la de un profesional, pero va mejorando. Hay otro avance alucinante, que además es reciente y nos puede ayudar a combatir la pandemia: la habilidad del deep learning para descubrir la estructura de las proteínas, los ladrillos con los que se construye la vida. Ahora mismo no sabemos cómo transponer la secuencia del ADN en la forma de estas proteínas, y eso es muy importante para diseñar medicamentos. Por supuesto, Google, Facebook, Amazon o Microsoft, están apostando muy fuerte por el aprendizaje automático, que usan de muchas formas.
P. Como académico, ¿qué le parece que el objetivo principal de esas compañías cuando usan la tecnología que usted ha ayudado a desarrollar sea colocar mejor los anuncios?
R. Creo que la publicidad no es buena para el capitalismo. Al final se trata de manipulación psicológica. Podría aplicarse a cuestiones menores, que te lleve por ejemplo a elegir CocaCola frente a Pepsi, pero se convierte en algo serio cuando altera tus elecciones críticas, logrando por ejemplo que te comas algo que es malo para tu salud para sacar provecho de ello. Creo que ahí debería haber un debate moral fuerte, porque la publicidad tiene un impacto social importante. Resulta además que la gente no se da cuenta de que la publicidad no es buena para la propia eficiencia del capitalismo: es una barrera entre las empresas ya establecidas y las emergentes. Eso torpedea las posibilidades de las pequeñas empresas de desarrollar productos potencialmente mejores, por lo que ralentiza la innovación.
P. ¿Qué propone?
R. La única forma de mejorar la situación para todos sería cambiar las normas del juego: prohibir algunos tipos de publicidad. En Canadá no puedes anunciar tabaco. Creo que deberían estar prohibidos los anuncios con motivaciones políticas, especialmente en la era digital. Deberíamos ser enérgicos en la regulación de esta industria.
P. ¿Cree que la democracia está en peligro por el uso que hacen algunos del aprendizaje automático?
R. Absolutamente. Estamos construyendo grandes herramientas, como la inteligencia artificial o la biotecnología. Pero toda herramienta se puede transformar en un arma. Siempre pueden ser usadas por los individuos, empresas y países más poderosos para aumentar su poder. Y por definición, esto va en contra de la democracia, la cual consiste en compartir el poder, en que todos tengan voz. Estas herramientas [en referencia a la microsegmentación o los deepfakes] pueden constreñir nuestros sistemas legales y la forma en que los usamos y convertirse en un peligro para la democracia. En el caso de las redes sociales, es obvio que el uso de la microsegmentación levanta una gran preocupación. Se podría regular el abuso que hacen de ciertas tecnologías si esta tiene efectos negativos sobre la democracia.
La inteligencia artificial creará riqueza, pero tenemos que vigilar que no se concentre excesivamente
P. Dice que la inteligencia artificial es menos lista que un ratón. ¿Tendemos a sobreestimar las capacidades de esta tecnología?
R. Por supuesto. Mucha gente cree que la inteligencia artificial es mágica. No lo es. Como científico, nuestro trabajo principal es entender sus limitaciones. Debemos tener cuidado con cómo hablamos de esta tecnología para que se entienda su potencial para resolver problemas y el hecho de que hay empresas que la usan legítimamente para sacar beneficio económico. Nada es totalmente blanco o negro. Para tomar buenas decisiones debemos saber qué pueden hacer o no estas máquinas y qué es plausible que puedan conseguir dentro de tres, cinco o diez años.
P. ¿De qué ve usted capaz al deep learning para finales de esta década?
R. Más que en términos de capacidad, prefiero centrarme en su generalización. Creo que hay muchos sectores de la sociedad en los que todavía no se usa, quizás porque no hay datos suficientes para trabajar. Eso cambiará en los próximos años. Los ordenadores ganarán presencia en nuestras vidas, está claro. Y cuanta más importancia cobren, mayor será la necesidad de estudiar su impacto social. Incluso si interrumpimos hoy la investigación en todo el mundo, creo que la inteligencia artificial será mucho más importante dentro de una década que ahora. Creará riqueza, pero tenemos que vigilar que esa riqueza no se concentre excesivamente.
P. Hay países que invierten muchísimo dinero en inteligencia artificial pero no tienen en cuenta los aspectos éticos que usted menciona.
R. Es un problema serio, similar a la crisis climática planetaria. Si cada país piensa solo en su propio interés, todos salen perdiendo. Debemos promover tratados internacionales que garanticen que nos movemos colectivamente hacia formas de uso beneficiosas de la inteligencia artificial. No creo que tengamos las instituciones internacionales correctas para que ello suceda. El elemento clave, por ahora ausente, es ligar estas cuestiones al comercio internacional. La única forma de hacer que los países se comporten es vincular los aspectos positivos que obtienen de los tratados internacionales, y el libre comercio internacional es uno de ellos, a los deberes asociados a formar parte de una sociedad de naciones. Hacer un uso responsable de la inteligencia artificial es sin duda una de ellas. Es una de las cosas que podría hacer, por ejemplo, la UE: vincular el comercio a una regulación satisfactoria del uso de este tipo de sistemas.
P. ¿Se refiere a peligros como las armas autónomas?
R. Exacto. Es un muy buen ejemplo de lo que digo: como quiero proteger a mi país, desarrollo armas que funcionan solas y me desentiendo de cómo pueda afectar al resto. Necesitamos tratados que lo regulen. El problema de las armas autónomas es que no parecen a priori una amenaza tan grave como las nucleares, que sí propiciaron tratados internacionales importantísimos. Por eso quizás no ha habido tantos incentivos en promover una regulación seria al respecto. Una vez más, creo que la solución está en vincular las obligaciones morales al comercio internacional. Siempre habrá países que no quieran cumplir con la regulación común: en ese caso, el precio a pagar debería ser económico. Si se imponen este tipo de tratados, hasta las grandes potencias tendrán que seguir unos estándares en el desarrollo de la inteligencia artificial. Nadie se quiere quedar marginado del comercio mundial.
Lucha contra el coronavirus
Fundado por el profesor Bengio, el Instituto de Algoritmos de Aprendizaje de Montreal (MILA) tiene varios proyectos enfocados en combatir la covid. “Hemos construido un software de rastreo basado en inteligencia artificial que manda una primera alerta antes de que el paciente tenga síntomas de covid. Eso es posible gracias a la gestión de datos de sus contactos”, explica en referencia a la app de rastreo de contactos que han desarrollado para el gobierno canadiense.
“También estamos trabajando en el diseño de nuevos medicamentos antivíricos en colaboración con la Fundación Bill Gates. Tratamos de crear nuevas moléculas combinando medicamentos que ya existen. Por otra parte, tenemos proyectos dirigidos a entender la evolución genética del virus para tratar de predecir cómo puede mutar en el futuro. Asimismo, trabajamos en mejorar la logística de los servicios públicos ayudando a la Administración a saber dónde va a tener los puntos calientes o dónde va a necesitar más asignar más recursos”.
Puedes seguir a EL PAÍS TECNOLOGÍA RETINA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.