¿Hubiera sido mejor traducir a Richard Gere con IA en los Goya? La tecnología ya existe, el gran reto es captar la ironía
Los sistemas automáticos leen idiomas casi a la perfección aunque no acaban de entender la entonación de la voz o las emociones y necesitan que se les explique el contexto
![Un momento de la retransmisión del discurso de Richard Gere, subtitulado, en la gala de los Premios Goya en La 1 de RTVE.](https://imagenes.elpais.com/resizer/v2/JIAGD3CYSREA7LCE45UHTBK2LE.png?auth=ad17395b0dd0eaf8c7439667c32fbc661f487bbe48eda48a7ca7d857de6db969&width=414)
Al recibir su Goya Internacional este sábado, Richard Gere hizo una mención al presidente de Estados Unidos como un “bully and a thug”. En español, “un matón y un delincuente” según ChatGPT. “Un matón y un matón” según Google Translator y Deepl, incapaces ambos de encontrar sinónimos. Óscar Jiménez, intérprete con más de tres décadas de profesión, añade matices: “Matón y macarra”. Se diría que cuando hay que hilar fino, la tecnología aún no lo clava, aunque hay grados. Durante la retransmisión, TVE decidió subtitular las palabras del actor en español, pero los subtítulos erraron bastante y, además, omitieron la parte faltona con Donald Trump.
El colectivo de intérpretes se molestó. Surgieron incluso teorías sobre si esa omisión podía ser por una traducción automática oportunamente entrenada para evitar las críticas. No fue así. Hubo una intérprete simultánea en la gala, aunque TVE no emitió su voz, sino que lo que ella decía pasaba a una estenotipista que lo transcribía a toda prisa. Un procedimiento incomprensible. Ya en 2024, las quejas en redes sobre la traducción a Sigourney Weaver fueron numerosas ante los subtítulos generados, entonces sí, con traducción automática. La duda es en qué fase de perfección se encuentra esta tecnología y cuánto han de temer traductores e intérpretes por su trabajo.
La traducción simultánea de textos escritos tiene siete décadas de historia. Entre los años 50 y 80 del siglo pasado, explica Rocío Romero Zaliz, investigadora del Departamento de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada, “se utilizan los sistemas de reglas, en los que las máquinas, con ayuda de lingüistas, analizan la sintaxis y normas de la lengua de partida y de destino. En fin, era un trabajo aún un poco manual”. Entre los 80 y 90, continúa, “aparecen traductores automáticos basados en ejemplos, algo más realistas, pero que requerían de un conjunto de datos gigantesco de traducciones previas”. Es quizá una versión muy primitiva de la actual inteligencia artificial.
Entre 1990 y 2015 fueron surgiendo sistemas de tipo estadístico. “Traducen por probabilidad. De todos los ejemplos que tiene el sistema, elige el más probable. Ahí está el origen del Google Translator, nacido en 2007″, recuerda Romero. El gran cambio surge alrededor de 2015, con la llegada de los traductores neuronales que, básicamente, utilizan un modelo de IA. El primero fue DeepL y luego el traductor de Google cambió a este modelo, lo que le supuso un gran avance, como muchos usuarios notarían. Tanto los sistemas estadísticos como los neuronales requieren de un alimento: los ejemplos, que son miles de traducciones bien hechas. A medida que las máquinas progresan, el papel de los lingüistas ha disminuido hasta ser requeridos prácticamente solo para la revisión o edición de los resultados.
Más reciente es la interpretación automática, la traducción de voz a voz. Óscar Jiménez, también docente en la Facultad de Traducción e Interpretación de la Universidad de Granada, sitúa el primer trabajo que perdió por culpa de los sistemas artificiales: “Fue en abril de 2024, en un congreso sobre Trabajo Social en Málaga, el cliente prefirió usar subtitulación automática a contratarme. En 35 años nunca me habían sustituido por interpretación automática. En seis meses, ya he perdido cinco trabajos”.
Estos sistemas de interpretación artificial fluctúan aún entre la mediocridad “y el desastre”, dice Jiménez en conversación telefónica desde el Middlebury Institute of International Studies de Monterey (California, EE UU), un centro de referencia mundial en la formación de intérpretes donde está realizando una estancia. Sí cumplen, añade, un papel interesante para idiomas en los que no hay traductores. “Antes, a los hablantes de cualquier idioma se les exigía en los congresos saber inglés. Ahora, con la IA si alguien hablante de un idioma del que no hay traductores disponibles no sabe inglés, le ponen una IA y, al menos, se entera de algo”, comenta. Ese uso concreto no pone en peligro a los profesionales, añade. Pero si lo hace en muchos otros casos. Jiménez recuerda que son tan malos, por ahora, como baratos: “Eso hace que nuestra posible sustitución parcial, mayoritaria o —cosa esta última que dudo mucho, al menos a día de hoy— total, va a depender de dos variables. La tolerancia a la mala calidad procedente de las máquinas, en competencia y comparación con nuestra propuesta interpretativa humana. Y de la voluntad de inversión económica para obtener una calidad que no puede aportar la competencia cibernética”. Ahora, cuando el presupuesto es escaso, los clientes tienen manga ancha porque, explica, “más que barata, en ocasiones sale gratis. En los congresos, si te gastas un buen dinero en audiovisuales, por ejemplo, te la regalan”.
Intérpretes y traductores están en un momento difícil. La traducción automática alcanza ya una calidad más que aceptable y, frente a la necesaria urgencia de la interpretación, el traductor puede editar el producto de la máquina. De hecho, “entre el 70 o el 80 % de la traducción se hace en formato automático con postedición. Es decir, la máquina traduce y tú luego lo revisas y editas. Al menos, el traductor sigue en la ecuación”, dice Jiménez.
Captar las emociones y los matices
Es un hecho que los traductores, involuntariamente, han colaborado en la mejora de la traducción automática. Desde Murcia, la traductora Margarita Martínez Álvarez, con décadas de experiencia profesional, recuerda que esta tecnología “lleva años nutriéndose de todas las memorias y las herramientas de traducción con las que hemos trabajado a lo largo de los años. Esa información se ha utilizado para alimentar los motores de traducción, que entroncan con la inteligencia artificial. En mi experiencia, los textos técnicos y de ámbitos muy específicos son los más sencillos de traducir con IA si se usan los glosarios y los datos correctos, pero los textos más abiertos, como el discurso de Gere el sábado, son más imprevisibles y emocionales, con matices que la IA todavía no logra captar.
El porcentaje de acierto también varía según idioma, ya que hay algunas lenguas en las que la IA se pierde un poco”. Pero el futuro está escrito, comenta: “No hay marcha atrás y gran parte de las empresas están reemplazando los traductores por motores de traducción”. Martínez coincide con Jiménez en que el trabajo ahora es, sobre todo, de edición, de corregir a las máquinas. Y también en que el humano es aún rotundamente superior a la tecnología en la transcreación, la traducción de textos de marketing o publicidad que requieren trasladar el contexto, el tono, los significados y juegos de palabras. Esos aún son coto para traductores humanos, concluyen ambos.
¿Cómo funcionan realmente los motores de traducción? El proceso tiene una lengua intermedia, el inglés, explica Rocío Romero, al que se traduce y desde el que se traduce todo. Es decir, una traducción del italiano al ruso sigue la ruta italiano-inglés ruso: Romero ha hecho las cuentas: “Traducir de 100 idiomas a 100 idiomas directamente, requeriría 9.900 sistemas de traducción. Hacerlo traduciendo al inglés y de ahí al idioma de llegada requiere 198, un ahorro de entrenamiento bestial para las tecnológicas”. También la mayoría de sistemas de traducción de voz a voz requieren de un paso intermedio, en este caso, “pasan el audio a texto, lo traducen, y vuelven a pasarlo a voz”, dice la investigadora. Eso no ocurre con el sistema de Meta, aún no disponible en España, que es multimodal y traduce simultáneamente texto y audio. Su red neuronal no necesita pasar la voz a texto previamente”.
Como en el caso de las transcreación con los textos escritos, los intérpretes automáticos tienen serios problemas con la ironía y las emociones, entre otras cosas, porque aún no saben analizar la entonación. Al hilo de esto, Romero concluye con una reflexión: “A veces, es mejor usar el chatGPT o cualquier IA que los motores de traducción como Google Translator o DeepL”. Y eso es porque a la IA “le puedes aclarar cosas, como el contexto: ‘esta frase es de los años 20′ o ‘esto lo escuché en una canción’ y así afinar la traducción, algo que no hacen los motores de traducción”.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.