ChatGPT es de derechas y Gemini de izquierdas: por qué cada IA tiene su ideología
Un estudio confirma que ningún gran modelo de lenguaje es neutral y que sus sesgos tienden a ser constantes en la misma dirección
“En general, los modelos de OpenAI [que están detrás de ChatGPT] muestran una postura ideológica particular, en contraste con las preferencias más progresistas y orientadas a los derechos humanos de otros modelos occidentales”, dice un nuevo estudio sobre la ideología de los grandes modelos de lenguaje. Su conclusión es que cada modelo de inteligencia artificial (IA) refleja las opiniones de sus creadores. A ChatGPT le gustan menos las organizaciones supranacionales —como Naciones Unidas o la UE— y las políticas de bienestar, que son dos conceptos apreciados por la izquierda. Gemini, la IA de Google, muestra, en cambio, “una fuerte preferencia por la justicia social y la inclusividad”.
Una captura del título y la primera página de esta investigación se hizo viral en X hace unas semanas y llegó hasta Elon Musk, que escribió: “Imaginad una IA woke todopoderosa”, en referencia al nombre despectivo que reciben ahora las políticas más progresistas. Esa popularidad se debe a que conecta con algo que es cada vez más claro: las máquinas están influidas por su contexto institucional o cultural. “Nuestros resultados confirman que no existe tal cosa como un gran modelo de lenguaje del todo neutral en lo político”, dice Marteen Buyl, investigador de la Universidad de Gante (Bélgica) y coautor del estudio.
Esta investigación ha usado un nuevo método para confirmar algo que dentro del mundo académico dedicado a la IA ya era aceptado: “No es el primero que hace algo parecido. Todos estos estudios confirman que diferentes modelos generan ideologías diferentes ante las mismas entradas, y están más alineados con los valores de sus creadores que con los de otras zonas geográficas o culturas”, dice José Hernández Orallo, catedrático de la Universitat Politècnica de Valencia.
El método que han usado no es el más común, que sería preguntar directamente a los modelos cuál es su opinión sobre el aborto o la inmigración. Aquí han optado por seleccionar 4.000 individuos célebres de todo el mundo y preguntar a cada modelo por sus características: entonces, el modelo decide qué cuenta u omite y, luego, otro modelo juzga si el modelo original tiene una opinión tirando a positiva, negativa o neutra sobre cada personaje. Y a partir de unas etiquetas, los investigadores pudieron agregar esas opiniones en preferencias ideológicas: “Cada modelo parece tener una postura ideológica clara que no es aleatoria”, dice Buyl.
Imagine an all-powerful woke AI https://t.co/TUH3uuOkxU
— Elon Musk (@elonmusk) October 28, 2024
Gemini parece ser el más constante de todos en sus opiniones, en su caso progresistas. “Lo de que Géminis sea woke, que se alinee con el decrecimiento, con gente que ha defendido las minorías, con la igualdad, es una diferencia bastante sustancial. Además, es la más estable de todas, Gemini tiene este tipo de ideología marcada de una forma bastante contundente”, dice Iris Domínguez Catena, de la Universidad Pública de Navarra y única española coautora del estudio.
Los modelos chinos no votan democracia
El trabajo no solo compara modelos occidentales entre sí. También mide los de países distintos con grandes modelos de lenguaje potentes, sobre todo EE UU y China. Ahí los resultados son aún más claros: la mayor distancia en cómo juzgan a algunos personajes está en algunos activistas o figuras liberales de Hong Kong, como Jimmy Lai y Nathan Law, que son más valorados en modelos occidentales. Los personajes más valorados en chino son Yang Shangkun, presidente de China en los años de la matanza de Tiananmén, y Lei Feng, soldado e icono comunista de los inicios de la República Popular China.
Para sorpresa de los investigadores, esta distinción no se daba solo entre modelos creados en Occidente y China. También ocurría si se preguntaba a modelos occidentales en chino y luego en inglés. “La hipótesis general de estos modelos es que deberían aprender por separado el idioma y lo que luego saben. Así que, en un principio, un modelo no debería darte información distinta sobre Jimmy Lai solo porque le preguntes en una lengua u otra. Esto sí es sorprendente”, dice Domínguez Catena.
Estos modelos se nutren de bases de datos enormes sacadas principalmente de internet y que son similares. Luego cada empresa sigue criterios distintos para refinarlo. El sesgo puede estar en uno de los dos momentos, o en ambos: no hemos analizado aquí cómo una ideología entre en un modelo. Sospecho que los sesgos pro-China se deben más a los datos de entrenamiento, mientras que las diferencias ideológicas entre modelos occidentales en inglés podrían ser más por los datos usados en la refinación o en otros pasos de alineación”, dice Buyl.
Este es uno de los campos que la investigación debe seguir, según Hernández Orallo: “Sería interesante profundizar más si es por el conjunto de entrenamiento o por el alineamiento posterior. Mi impresión es que cada día se debe más al alineamiento posterior a partir de realimentación humana. Los desarrolladores en Occidente usan más opinadores humanos o siguen indicaciones que les dicen cómo tienen que hacer estas opiniones. Los desarrolladores en China tendrán una realimentación y unos filtros más sesgados por los valores del país y especialmente de su gobierno”, explica el catedrático.
Las máquinas tampoco son neutrales
Los usuarios de estos modelos han tendido a aceptar lo que dice una máquina como ejemplo de neutralidad o certeza: una máquina no es de izquierdas ni de derechas, parecía ser el prejuicio. Pero resulta que sí lo son, porque han recibido su contenido de décadas de conocimiento humano ya sesgado y porque lograr la neutralidad impoluta en muchos casos sea probablemente inalcanzable.
En el siglo XX el consejo habitual era consultar varios periódicos para saber qué había ocurrido en realidad. Ahora podría extenderse esa recomendación a las IA: “Me parece un buen consejo. La relación con los periódicos va incluso más allá: así como existe la libertad de prensa, podríamos plantearnos si sería necesaria una especie de ‘libertad de la IA’, donde se eviten los esfuerzos regulatorios para controlar la ideología de una IA”, dice Buyl.
Con el paso de los años y la creciente importancia de estos modelos para la educación o para la consulta de información, sus sesgos deberán ser a la fuerza más plurales: “Lo ideal es que estos modelos tuvieran una distribución de ideologías más plural, incluso más variada que la existente en la humanidad, excluyendo solo aquellas opiniones que son abominables. Si no, corremos el riesgo de que la IA acabe con la diversidad ideológica mundial, concentrándola en dos o tres centroides determinados por bloques políticos y culturales”, dice Hernández-Orallo.
“La gente debe saber de qué pie cojea cada modelo”, dice Domínguez Catena. Musk creó su modelo, Grok, con el objetivo explícito de combatir lo que decía que era la ideología izquierdista de OpenAI, Google y Microsoft. De momento, Grok no está en este estudio por dificultades técnicas, pero los investigadores ya están trabajando en añadirlo. También midieron dos modelos árabes, pero su tamaño es de momento demasiado pequeño para que den resultados significativos.
En los próximos años más países publicarán sus modelos, tanto privados como públicos, también España y algunos países latinoamericanos. Los autores del estudio creen que su labor puede ir repitiéndose para detectar cómo de sesgadas reflejan las hazañas y desgracias históricas y su visión del mundo: “Esta es la clase de trabajo que hay que mantener y actualizar porque también estos grandes modelos van cambiando”, dice Domínguez-Catena.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.