Ariadna Font, creadora del área de ética algorítmica de Twitter: “Las críticas no nos dan miedo”

La española es directora de ingeniería de la plataforma de aprendizaje automático de la red social y una de las fundadoras de META, su equipo de transparencia y rendición de cuentas

Ariadna Font.
Ariadna Font.FLAMINIA PELAZZI

La española Ariadna Font (Barcelona, 1974), alias @quicola, llegó a Twitter seis meses antes de la pandemia atraída por sus valores de “transparencia, amabilidad, inclusión y cuidado del otro”. De un día para otro, pasó de viajar sin parar a teletrabajar. Venía de IBM, donde ejerció los cargos de directora de desarrollo de productos y directora de diseño en el área de datos e inteligencia artificial (IA) de IBM Watson y, anteriormente, directora de Tecnologías Emergentes en IBM Research. También trabajó en alguna startup, después de doctorarse en Lenguaje y Tecnologías de la Información por la Universidad Carnegie Mellon (EE UU).

En Twitter, Font es directora de ingeniería de la plataforma de aprendizaje automático (una técnica de IA). Su propósito es mejorar Twitter habilitando una IA “avanzada y ética”. Por eso, dirige los esfuerzos de la red social en torno a una IA responsable y fue una de las creadoras, hace más de un año, del área de META (no confundir con el nuevo nombre de Facebook), su equipo de ética, transparencia y rendición de cuentas. Esta entrevista transcurre a través de la pantalla del ordenador, entre Barcelona y Nueva York.

¿En qué consiste su trabajo?

Soy directora de ingeniería de la plataforma de aprendizaje automático, que está presente en casi todas las áreas de lo que cada persona ve en Twitter: lo que aparece cuando entra y en qué orden, qué notificaciones recibe, los resultados de una búsqueda… También interviene en otros campos no tan visibles, como la detección de tuits que puedan estar violando las políticas de la plataforma. Nuestro propósito es cultivar una conversación pública saludable y que las personas que están construyendo la tecnología que hay detrás tengan las herramientas para lograrlo. Que, por diseño y desde el principio, puedan hacerse las preguntas adecuadas en el momento adecuado. Ello implica crear un espacio seguro donde cada uno se pueda expresar libremente, en una cultura de respeto. Eso es complicado, y en mi trabajo se traduce en crear unos algoritmos lo más abiertos posible, que sepamos cómo impactan en la experiencia de usuario.

¿Cómo?

Formando a las personas, compartiendo buenas prácticas y documentando todo. Estamos diseñando una nueva versión de la plataforma y tenemos la oportunidad de hacernos ciertas preguntas. Analizamos y evaluamos cada nueva funcionalidad, y clasificamos los riesgos asociados. Lo siguiente es realizar auditorías internas. Ya hemos hecho alguna, pero queremos hacerlo por sistema y de manera mucho más rigurosa. Por otra parte, es clave cómo aplicamos los resultados de las investigaciones que realizamos. Por ejemplo, hace un año, hubo comentarios de personas en Twitter sobre problemas con nuestro algoritmo de recorte de imágenes. Tras una investigación interna, vimos que técnicamente el algoritmo era preciso y no encontramos ningún sesgo. El problema era que un sistema automatizado y no el usuario decidía cómo cortar su imagen. Nuestra conclusión fue que no debíamos decidirlo por el usuario, así que lo cambiamos.

Usted creó el equipo META para velar por la responsabilidad y transparencia de la IA de Twitter. ¿Cuál es su estrategia?

Queremos ser proactivos, no solo reactivos. Eliminar sesgos y prevenirlos. Trabajamos sobre todo en tres áreas: transparencia, que en el ámbito corporativo no se estila mucho; investigación puntera y análisis detallado, herramientas y estándares, empezando por la gestión de riesgos. Queremos ser dignos de la confianza de los usuarios. No es muy común que se abran las cajas negras, pero las personas tienen que entender cómo funciona esa IA y sentir que controlan su experiencia.

Una parte muy importante de nuestra tarea es comunicar qué está pasando dentro de esos sistemas y aumentar la transparencia y la explicabilidad. No compartimos solo lo que nos hace quedar bien. Al contrario, cuando no nos sale bien es cuando podemos aprender más. Por eso uno de nuestros pilares es ayudar a que se sepa cómo tomamos las decisiones algorítmicas y rendir cuentas públicamente. ¿Cómo? Compartiendo los resultados y cómo estamos mitigando casos de injusticia algorítmica. Y hacerlo no solo con un artículo científico sino con explicaciones que cualquiera pueda entender.

Acaban de hacerlo con una investigación en España, Francia, Reino Unido, EE UU, Canadá y Japón que concluye que la plataforma favorece los tuits de la derecha política y mediática.

Es un ejemplo de muchos. Queremos generar espacios en los que los usuarios puedan sentirse seguros para poder criticar. Todo lo que aprendemos lo queremos usar para mejorar no solo nuestros algoritmos sino nuestro funcionamiento. Queremos ser abiertos y flexibles para cambiar la experiencia de usuario. Compartimos estas investigaciones para avanzar y para que los demás puedan aprender de ellas. Que la comunidad académica y la industria puedan beneficiarse de ellas.

Habla de implicar a la comunidad en ese camino hacia la justicia algorítmica.

Nos tomamos muy en serio los comentarios de los usuarios de Twitter. No queremos simplemente comunicarnos de forma unidireccional a través de nuestro blog. Necesitamos una conversación bilateral y escuchar a los usuarios y a la comunidad científica. En este sentido, estamos analizando cuál es la mejor manera de escuchar a todo el mundo. Tenemos varias iniciativas en las que los usuarios pueden poner etiquetas, decir qué consideran aceptable o no.

Por otro lado, nos interesa muchísimo trabajar con la comunidad científica y de hackers. Buscamos siempre la manera de abrir cualquiera de nuestros análisis para que puedan hacer preguntas y aportar ideas. Desde Twitter somos conscientes de que no tenemos la capacidad de hacer o resolver todas las preguntas. Vemos a la comunidad científica como la extensión de nuestro equipo.

Han formalizado algunas colaboraciones tanto con redes de hackers éticos como con académicos.

Tenemos personas que dedican un día a la semana a trabajar con nosotros y también otras que hacen estadías de 3 o 4 meses. Este es el caso de Sarah T. Roberts, que está investigando la agencia del usuario en las decisiones algorítmicas. Esto es algo que queremos hacer cada vez más, colaborar de forma productiva e integrar la visión externa de estas personas.

¿Cómo colaborar sin crear dependencias? ¿Cómo evitar la sospecha de que Twitter quiere comprar a estas personas?

Es muy difícil. Estar un día a la semana con nosotros tal vez puede crear esa dependencia, lo cual es contrario a nuestro interés. Su independencia es precisamente el beneficio para nosotros: su visión y retroalimentación externa. Queremos esa comunidad crítica que nos ayude a mejorar. Las críticas no nos dan miedo. Sabemos que vamos a cometer errores. No existe la perfección.

¿Planean realizar auditorías externas?

Lo hemos hablado muchas veces y sería lo ideal. El reto es poder hacerlo sin tener que compartir ni revelar datos de los usuarios. Tenemos que crear un entorno de datos con tecnologías que preserven su privacidad. Es un paso previo que parece fácil, pero conlleva toda una infraestructura y mucho trabajo. Siempre que podemos abrimos el código para que la gente lo pueda analizar, pero es un proceso que no es automático. Estamos aplicando lo que se conoce como “privacidad diferencial” para, por ejemplo, analizar posibles sesgos sin usar datos demográficos. Para esto, entre otras cosas, hemos contratado a una referente, Lea Kissner, que dirige el equipo de privacidad.

¿Cómo protege Twitter la privacidad de los usuarios?

La privacidad está en nuestro ADN. Solo protegiéndola podemos promover una conversación pública abierta y saludable. Creemos que la privacidad es un derecho fundamental, no un privilegio. Twitter permite a los usuarios tomar decisiones informadas sobre los datos que comparten con nosotros. Debemos ser transparentes y brindar un control significativo sobre qué datos se recopilan, cómo se utilizan y cuándo se comparten. Seguimos invirtiendo más en los equipos, la tecnología y los recursos para respaldar este trabajo crítico.

Además de a Kissner, ha contratado a otras muchas mujeres. Para liderar META fichó a la especialista en ética algorítmica aplicada Rumman Chowdhury, y presume de que en su equipo de liderazgo ya son un 50% de mujeres.

Siempre me he centrado en crear equipos diversos, algo especialmente relevante en el área de la IA responsable. Queremos atraer al mejor talento de la industria y contar con esa diversidad no solo en el género o la raza, sino en formación, en cultura, en experiencias vitales y en formas de ver las cosas.

¿Qué está haciendo su equipo para ponderar los algoritmos y evitar que premien contenido desinformativo, extremista o incendiario?

Cuando identificamos contenido que infringe las reglas de Twitter, tomamos medidas para controlar su cumplimiento y para que dicho contenido no se amplifique. Por ejemplo, podemos etiquetar o solicitar la eliminación de tuits que violen nuestra política de integridad cívica, la política de desinformación COVID-19 o nuestra política de medios sintéticos o manipulados. Los tuits etiquetados tienen una visibilidad limitada en las búsquedas, las respuestas y las cronologías, y el algoritmo de Twitter no los recomienda.

Asimismo, queremos darles a las personas un control significativo sobre su experiencia. Para ello pueden elegir si quieren seleccionar o no una cronología algorítmica, lo que significa que su cronología de inicio muestra los tuits de las cuentas que esa persona sigue en Twitter, así como recomendaciones de contenido en el que podrían estar interesados, en función de las cuentas con las que más interactúan.

La amplificación algorítmica es menos una función del algoritmo en particular y más una función de cómo las personas interactúan con estos sistemas. Los algoritmos pueden reflejar y replicar sesgos sociales dañinos. Por eso, a medida que META investiga los algoritmos de Twitter, divulgamos públicamente los hallazgos y trabajamos para desarrollar soluciones.

¿De qué otras formas se podría atajar estos problemas?

Damos prioridad a la toma de acción proactiva contra aquel contenido que incumple nuestras normas, incluido el contenido abusivo. Eso significa que las personas en Twitter no experimenten el abuso o daño antes de que tomemos medidas. De hecho, el 65% del contenido abusivo que accionamos lo identificamos de forma proactiva para su posterior revisión humana, en lugar de depender de los reportes de los usuarios. Continuamos mejorando la precisión de nuestro aprendizaje automático para detectar mejor y tomar medidas sobre el contenido que infrinja nuestra política. Como resultado, han aumentado un 142% las cuentas accionadas por contenido abusivo.

¿Sería posible un Twitter más ‘orgánico’?

Desde 2016, las personas en Twitter pueden alternar entre “Inicio” (cronología de inicio clasificada algorítmicamente) y “Tuits más recientes” (donde los tuits más recientes se muestran a medida que se publican). Pronto iniciaremos un experimento para permitir que sea más fácil cambiar de una a otra. Esto permite que cualquier usuario de Twitter vea el contenido que le gusta de la forma que más le convenga. Por otra parte, estamos trabajando para descentralizar la experiencia de Twitter a través de nuevas funciones y productos que brindan una experiencia más personalizable y personalizada.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Normas

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS