_
_
_
_
Visión y tecnología

“Los ingenieros no están preparados para resolver cuestiones éticas”

Facebook le ha encargado a Joaquín Quiñonero cerciorarse de que la inteligencia artificial usada por Facebook sea ética y responsable. De perfil técnico, lo primero que ha hecho es sumar a su equipo filósofos, politólogos y artistas.

Joaquín Quiñonero dirige en Facebook a un grupo centrado en los aspectos éticos de la inteligencia artificial.
Joaquín Quiñonero dirige en Facebook a un grupo centrado en los aspectos éticos de la inteligencia artificial.Fernando Sánchez

Joaquín Quiñonero (Valencia, 1977) lleva meses creando y dirigiendo en Facebook un grupo centrado en los aspectos éticos de la inteligencia artificial (IA). “Me han encargado el liderazgo científico de nuestro trabajo en ética y responsabilidad en IA”, dice en una entrevista con EL PAÍS RETINA a su breve paso por Madrid. La misión de Quiñonero es proporcionar un marco ético aplicable a todas las áreas y productos de la compañía.

P. ¿En qué consiste su nuevo rol?
R. Estoy dedicándome a investigar y construir un equipo para desarrollar una estrategia de ética e innovación responsable. Esta tiene cuatro pilares. El primero es asegurarnos de que en cada equipo de producto haya gente responsable que se comprometa a estudiar estos problemas y a rendir cuentas. El segundo es crear grupos de expertos para resolver los asuntos más difíciles en el área de la IA, como la equidad, la justicia o la privacidad. El tercero es el trabajo con grupos externos mediante colaboraciones con universidades o con organizaciones de la sociedad civil. El cuarto pilar es la tecnología: por una parte, seguir invirtiendo en sistemas para comprender y analizar contenido problemático y, por otra, construir herramientas que ayuden a los equipos a detectar sesgos, ya sea en los datos, en los algoritmos o en las intervenciones.
P. ¿Cómo enfoca el trabajo en torno al concepto de justicia?
R. Lo más importante es que el grupo de expertos sea multidisciplinar. Yo tengo un bagaje técnico y quizá mi punto de vista hace año y medio era algo ingenuo. Pensaba que todo se reducía a matemáticas: comprender el sesgo de los algoritmos y escribir código para resolverlo. Ahora mi visión es diametralmente opuesta. Me he dado cuenta de que el problema de la IA es casi una cortina de humo, una distracción. En realidad es un problema social, y no es nuevo: existe desde hace miles de años. Por eso he incorporado al equipo filósofos morales y perfiles de áreas como las ciencias políticas o el arte. Trabajamos con preguntas que no tienen una sola respuesta correcta. Los ingenieros no están preparados para resolver esas preguntas.
P. ¿Cómo funciona su equipo?
R. Nos centramos en ejemplos muy concretos para no correr el riesgo de parálisis por análisis. Por ejemplo, tenemos un producto de recomendaciones de puestos de trabajo y nos preguntamos si genera las mismas oportunidades económicas por géneros y edades. En el caso de los sesgos, que tu algoritmo no esté sesgado no garantiza que el producto no lo esté. Hay que mirar cuál es el objetivo que estás intentando optimizar, cómo estás consiguiendo los datos, quiénes son los humanos que generan etiquetas para esos datos y cómo se van a utilizar esas predicciones. Hay que mirar la foto completa. La justicia o la equidad no son propiedades de un sistema sino procesos.
P. ¿Qué cuesta más?
R. A menudo se dan dilemas. El algoritmo optimiza en base a los datos que ha recogido. Si entre ellos hay menos de un determinado grupo poblacional y deriva en un sesgo, no es aceptable. Sin embargo, inyectar discriminación positiva para corregirlo supondría que la precisión del algoritmo no sea igual para todo el mundo, ya que se estaría priorizando al grupo poblacional afectado por el sesgo. Solo puedes desviarte de estas propiedades en casos extremos y teniendo en cuenta las consecuencias.
P. ¿Qué otra cosa se podría hacer para corregir esos sesgos?
R. Puedes jugar con opciones en torno al producto. En el caso del sistema que recomienda puestos de trabajo podría plantearse darle menos importancia a la etnia percibida. Es decir, que no sea necesario poner el nombre de la persona. No es una solución de IA sino una donde miras el problema de forma global.
P. ¿Qué hay de la privacidad?
R. Sigue siendo nuestro objetivo máximo, lo más importante. Después del desastre de Cambridge Analytica hemos aprendido muchas lecciones. Estamos invirtiendo más si cabe en varias líneas de trabajo: transparencia en explicar qué datos de los usuarios se utilizan y para qué, garantizar el cumplimiento de nuestros estándares, avanzar en la tecnología para que no se tengan que enviar datos a la nube sino que todo pueda hacerse en el dispositivo...
P. ¿Cómo puede la gente confiar en Facebook si los ingresos de la red social dependen en gran medida de los anunciantes?
R. El ángulo más fuerte acaba siendo la transparencia. También debemos explicar lo más claramente posible cómo funciona cada producto, por qué, con qué datos… Estamos al principio de una larga aventura de mejorar muchísimo el diálogo y la transparencia con la gente.
P. Facebook ha sido criticado por el modo en el que modera el contenido de odio, protegiendo a hombres blancos y no a niños negros. ¿Puede ayudar la IA en esto?
R. Es una ayuda indispensable, pero no puede sustituir a los humanos, dado que aún está lejos de comprender las sutilezas del mensaje y del contexto en que se desarrolla. Se ha podido eliminar cuatro millones de contenidos de odio en el primer trimestre de este año, del cual el 65% había sido identificado por nuestra tecnología antes de que se hubiera reportado.
P. Los usuarios de Facebook reciben más actualizaciones de sus amigos y menos de medios periodísticos creíbles. ¿Perjudica eso a la democracia y al derecho a la información?
R. Las personas siempre nos dicen que encuentran poco valor en contenido con el que no tienen relación. Por eso en 2018 se hizo un cambio en el algoritmo para promover las interacciones sociales por encima del contenido relevante dentro de la plataforma. En cuanto a procesos electorales, no somos la misma compañía que en 2016. Hemos invertido para garantizar la seguridad, eliminando a los malos actores, retirando las cuentas falsas, reduciendo la distribución de noticias falsas y trabajando con verificadores de información.
P. Se ha acusado a redes sociales como Facebook de generar problemas de adicción. ¿Cómo evitar estos problemas si el modelo de negocio de la compañía depende de ello?
R. La adicción a la tecnología nos debe preocupar a todos. Nuestro objetivo no es maximizar el tiempo que la gente pasa utilizando nuestros productos, sino que este sea valioso. Estamos construyendo herramientas que dan mayor control sobre la experiencia, como la posibilidad de limitar las notificaciones.
P. ¿Se plantea Facebook cambiar su modelo de negocio?
R. [Mark] Zuckerberg está a otras cosas. Entre ellas, cómo mejorar la regulación en internet en general. Para eso necesitamos ayuda.
P. Pero eso se puede ver como un intento de evitar el escrutinio público, de autorregularse para que otros no regulen.
R. Categóricamente no, ese no es el objetivo. Formamos parte del Partnership on AI, una organización independiente que se centra en identificar los problemas más difíciles y generar buenas prácticas.
P. Un investigador del MIT ha definido el Partnership on AI como “una vía que las grandes empresas tecnológicas usan para manipular a la academia y evitar la regulación”.
R. El Partnership on AI esta compuesto por 100 organizaciones, de las cuales la mayoría son organizaciones sin animo de lucro. Su gobierno es autónomo y no depende de organizaciones industriales. Facebook no se opone a la regulación: al contrario, hay muchas decisiones complejas alrededor de nuestros productos y tecnologías que pensamos que Facebook no tiene que tomar. La sociedad debe afrontar esos retos, y por eso estamos a favor de la regulación.

Ética y principios

Quiñonero sostiene que las Directrices éticas para una IA fiable, de la Comisión Europea, son “de gran utilidad”. De entre los siete requisitos que el documento menciona, el directivo destaca el de la robustez: asegurarse de que un sistema funcione bien.

“En la mayoría de los casos no es así en tecnologías tan nuevas, ya sea porque los datos de entrenamiento se te han quedado viejos o porque ha habido un fallo de software”. En cuanto a transparencia, cree que esta debe ser para los productos de IA como la información nutricional en alimentación: “Hay que documentar qué se ha hecho y cómo”. Otro principio muy importante, dice, es la rendición de cuentas.

Detrás de los principios está el modelo de IA. Se dice que EE UU mira por el rédito económico; la UE por los ciudadanos y su privacidad y China por el control y la vigilancia. ¿Cuál es el modelo de Facebook? Quiñonero no se moja: “Como científico en el equipo de IA, estoy centrado en colaborar con la comunidad científica en avanzar el estado de esta tecnología”.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_