“La automatización masiva es un peligro que hay que saber manejar”
Nerea Luis, especialista en inteligencia artificial, reivindica todo lo logrado en los últimos años, pero alerta de los riesgos de los algoritmos: “Hay que estar al loro: ¿a quién le estamos dando todo el poder?”
Experta en inteligencia artificial y robótica, Nerea Luis (Madrid, 31 años) navega con ilusión, pero inquietud, el momento más complejo de su disciplina. Por un lado, el desarrollo acelerado de aplicaciones fascinantes, como en el mundo de la medicina o el procesamiento del lenguaje natural; por otro, los “casos catastróficos” en los que se equivocan o abusan de la opacidad, por culpa de una escasa regulación. Por eso, más allá de su trabajo en la compañía Sngular, se implica a fondo en su tarea de divulgadora tecnológica, encadenando charlas, como la que le llevó al Tenerife GG, y ahora también en su nueva sección en el programa Órbita Laika de La2: “Estamos en un punto en el que hace falta entender las aplicaciones de la inteligencia artificial; igual hay una que te ha afectado ya y no lo sabes”.
Pregunta. ¿Cuál es la percepción de la gente?
Respuesta. El tema de la ciencia ficción ha hecho mella. Se nota mucho que todavía hay ese tópico de la superinteligencia, de la singularidad, pero sí se empieza a ver más la parte de cuál es su aplicación. La gente mayor te dice: me preocupa cómo va a afectar al futuro de mi trabajo. Lo viven como algo muy propio.
P. Como una amenaza.
R. Una persona más joven lo ve como incluso como algo que le puede ayudar en su carrera. Pero quien lleva 40 años currando y ve que esto cada vez coge más velocidad, se plantea si ahora va a tener que aprender nuevo, reinventarse. Se habla mucho de reinventarse, igual tenemos que pensar también otras opciones.
P. DALL-E, el programa que convierte palabras en imágenes, ha tenido mucho éxito, pero se ha convertido en una parodia, la mayoría de la gente la usa para buscar la risa y el meme. ¿No cabe el riesgo de que se perciba que la inteligencia artificial solo se utiliza para hacer chorradas?
R. Es verdad que a veces puede convertirse en parodia, pero yo lo veo como algo bueno, porque como todo el mundo entiende lo que es una imagen y le hace gracia, pero al final dice: ostras, esto ya está pasando y lo pruebo con mis manos. Igual que pasó en su día con estas aplicaciones de móvil que sirvieron para que entendieran qué es un deepfake porque veía los vídeos. Eso ayuda mucho a que se entienda al menos una de las vertientes.
Hay que exigírselo [a las compañías]: que den más información, sobre todo cuando afecta a personas
P. ¿Y cómo interpreta lo polémica con el programa LaMDA, cuando un ingeniero de Google aseguró que era consciente?
R. Ha generado mucho ruido y al final ha sido eclipsada por todo el lío. Ya no se habla de qué hace LaMDA o el asunto que intenta resolver. LaMDA es brutal, si te lees la conversación con el ingeniero, dices: ostras, vaya argumentos que es capaz de lanzar. Eso es muy difícil en cuanto a coherencia y consecución de la conversación. Pero todos hablaban del salseo, si sentimientos, que si no tiene vida propia. Estos temas de si puede tomar conciencia generan muchísimo ruido porque la gente no entiende. Y te olvidas del brutal avance en el ámbito de procesamiento de textos y de razonamiento. La gente de Google está invirtiendo mogollón de pasta en resolver el problema, que es muy difícil, y que salga así, te lo eclipsa. Llega un momento que en que es todo tan novedoso y tan futurista que puedes caer enseguida en ese mundo de ciencia ficción y de novela.
P. Le resulta molesto que al final Terminator inunde el debate sobre la inteligencia artificial.
R. Yo lo entiendo, si no me dedicase a esto, seguramente sería una de las cosas que me llamase la atención. Yo no te voy a mentir, entré por eso en este campo, porque vi robótica, programas inteligentes y pensé: mola y suena muy futurista. Pero ahora que hay tantas aplicaciones posibles… Con la velocidad a la que estamos yendo, no digo que te vayan a quitar el trabajo, porque yo honestamente creo que no va a pasar, pero sí que se va a notar. Ese discurso se queda un poco eclipsado. Igual cuando llegue la época de elecciones empezamos a escuchar cosas de estas [ríe].
P. ¿Le preocupa el papel de las grandes compañías tecnológicas?
R. Me preocupa un poco, porque es verdad que la penetración ha sido muy fuerte. Pero, por otro lado, si miramos todo el camino, estoy convencida de que sin esas empresas hubiese sido muy difícil profesionalizar todo lo que se ha hecho, con inversión pura. Están empezando a publicar un montón [sus avances en revistas científicas] en abierto, mucho más de lo que yo me imaginaba. Y empezamos a ver colaboración público-privada. Es el camino, se ha marcado una tendencia y ahora es muy difícil volver atrás. Pero creo que hará mucho el aspecto regulatorio si finalmente se aplica. Es decir, hasta ahora hemos avanzado un poco como a lo loco, pero igual para ciertas cosas sí que hay que rendir de cuentas. Por otro lado, hay empresas importantes que se han retirado de asuntos controvertidos como el del reconocimiento facial. Está bien que lo hayan hecho ellas mismas, aunque sea por un tema reputacional, porque ya sienta un precedente alrededor de estos temas, porque tienen mucho poder. Pero hay que estar ahí un poco al loro: ¿a quién le estamos dando todo el poder? Porque va a ser un monopolio brutal en unos años. Nos queda poco y mi sensación es que habría que exigir unos mínimos para que la comunidad universitaria pueda aprovecharse.
P. ¿En qué sentido?
R. Información. De cómo replicar lo que hacen. Al menos tener una forma de ver algo, aunque no sea totalmente transparente. Hay que exigírselo directamente: que den algo más de información en según qué casos, sobre todo cuando afecta a personas.
P. ¿Como por ejemplo?
R. Algoritmos aplicados en recursos humanos, que tú no seas informado de que tu currículum ha sido cribado por un algoritmo. Temas de empleo, justicia, educación, salud. En este último la inteligencia artificial sí que está más regulada, pero el resto de sectores no tanto, más allá de lo que quiere hacer la empresa en el momento de salir al mercado.
Es todo tan futurista que puedes caer en ese mundo de ciencia ficción
P. ¿Tan oscura es la caja negra [el desconocimiento de por qué los programas deciden lo que deciden]?
R. Es difícil. Para eso hay que entender cómo funciona el deep learning [aprendizaje profundo, uno de los métodos con los que se entrena la inteligencia artificial]. Cuando hablamos de caja negra, realmente es por lo que subyace: detrás hay una cantidad de cálculos y de patrones que se codifican como vectores, como hiperplanos, componentes matemáticos… Arrojar luz sobre eso, salvo que hagas un trabajo específico de intentar visualizarlo, es muy difícil y tradicionalmente no se ha hecho. Se ha avanzado más en la línea de buscar soluciones, en métricas de acierto. ¿Por qué no crear algoritmos nuevos que estén monitorizando cómo cambia? Vas a seguir sin entender al cien por cien como se ha hecho el aprendizaje, pero sí que sirve para contrastar y para depurar algo que no funciona correctamente.
P. ¿Y hay algo que le preocupe en el desarrollo de la inteligencia artificial, más allá de que Terminator domine el mundo?
R. Podría ser [ríe]. Lo que más me preocupa es cómo unes estos desarrollos con el día a día de las personas. Los técnicos van por su lado sacando todo esto, se va poniendo en producción, hay personas accediendo a estos sistemas que afectan a las personas y empieza a observarse con lupa. Pero cómo se implementa una regulación, en qué se traduce a nivel formativo: hay una brecha ahí entre divulgación, formación y futuro del trabajo, que es la parte que más me preocupa. Al final ves que todo van tan rápido y da un poco de vértigo que entre que no controlas el tema, la regulación está a medias, la gente de según qué sectores se pone más nerviosa. Yo lo entiendo, si a alguien le dicen que hay unas nuevas herramientas que hacen el 80% de su trabajo, ahora cuál va a ser su función. O en un triaje de urgencias a ti te ponen el último y es porque se equivoca el algoritmo… Habrá situaciones de estas, que van a ser muy nuevas y que va a ser difícil de resolver, hay que pensarlas hoy y vamos a ir aprendiendo. Es un poco como lo que pasó con la conducción al principio. Llegaron los coches y la gente conducía como le daba la gana y luego se han ido poniendo regulaciones para reducir accidentes. Aparece el airbag, aparte del cinturón, aparecen las señales… un poco eso es lo que le falta a la inteligencia artificial a día de hoy.
P. ¿Le faltan señales a la inteligencia artificial?
R. Claro, y le falta rendir cuentas. Quién me asegura a mí que no esté discriminando. Va a tener que pasar por un aprendizaje, obviamente, y vamos a ver casos catastróficos. Yo estoy convencida de que seguiremos viendo crisis reputacionales alrededor de inteligencia artificial. Pero sabiéndolo, intentar trabajar con transparencia, con la regulación. Con la inteligencia artificial tienes un poder que antes no tenías: la automatización masiva. Es un peligro que hay que saber manejar. No puedes hacer que todo el mundo sea ingeniero. Si lo enfocamos bien, habrá entornos más amigables con los algoritmos. Y si no, la palabra se irá demonizando y se verá todo como algo negativo. Es muy guay, pero a la vez, vaya marrón.
Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.