_
_
_
_
Columna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

La IA se ríe

Han hecho falta nazis negros y madres fundadoras para demostrar que la aparente falta de estructuras de los modelos de inteligencia artificial es tan falsa como el flequillo de Elon Musk

Un usuario hace una consulta a Gemini, el modelo de IA de Google.
Un usuario hace una consulta a Gemini, el modelo de IA de Google.Alex Onciu
Marta Peirano

La tiranía de la falta de estructuras es un famoso ensayo que la abogada norteamericana Jo Freeman leyó por primera vez frente a la Unión de Derechos de Mujeres sureñas, en mayo de 1970. Decía que la organización no jerárquica y no estructurada que ansían algunos movimientos sociales, colectivos y cooperativas para garantizar una distribución equitativa del poder, autoridad o visibilidad mediática no es posible realmente. Y que, en aquellas organizaciones donde no se negocia o se pacta una estructura formal, emerge otra basada en el capital social, personal o político de sus miembros, una jerarquía que se propaga de forma aparentemente orgánica, sin transparencia ni responsabilidad.

En otras palabras: en los grupos donde nadie manda, acaban mandando los de siempre. Y, en un contexto sin reglas o estructuras pactadas y conocidas por todos, su poder es difícil de identificar, de rechazar o de cambiar. “La aparente falta de estructura oculta una dirección informal, no reconocida e irresponsable, que es aún más perniciosa porque niega su propia existencia”. Medio siglo más tarde, la tiranía de la falta de estructuras sigue operando con total impunidad. Lo pensaba ayer, cuando una amiga me explicó que el tipo con el que sale desde hace seis meses no quiere poner nombre a lo suyo porque prefiere fluir. Cuántas amigas he visto flotar en ese limbo de indeterminación que favorece siempre al miembro tradicionalmente privilegiado de la pareja. Y lo pensé cuando Google manipuló su nuevo modelo de IA para corregir sus sesgos y el resultado resultó ser mucho más subversivo y escandaloso que el motivo que hacía necesaria la corrección.

Google manipuló Gemini para hacerlo menos homófobo, racista y clasista. Según la ultraderecha, más woke. Usaron un proceso llamado prompt transformation donde el sistema modifica, adapta, corrige la instrucción del usuario para mejorar la calidad, la precisión o la relevancia de las respuestas generadas por el modelo. En cierto modo, una especie de autocorrector. Pero, al modificar secretamente las instrucciones del usuario para producir respuestas más inclusivas, Gemini empezó a corregir los errores de la historia, generando nazis negros, madres fundadoras e indígenas empelucados firmando la Constitución de 1787, como si el Mayflower hubiese llegado a Plymouth Harbor para venderles a los nativos las bondades del sufragio universal.

Haz que tu opinión importe, no te pierdas nada.
SIGUE LEYENDO

Aparentemente, podemos convivir con una IA racista y homófoba que atropella ciclistas y alucina libros, batallas y personas que nunca existieron, pero los nazis negros y las madres fundadoras son aberraciones tan peligrosas que necesitan ser amputadas de raíz. Una vez más, esta IA demuestra ser un mal sustituto de los trabajadores, pero una excelente herramienta de diagnóstico, capaz de señalar la hipocresía del mismo sistema que la entrenó. O lo que pasa cuando impones estructuras en un sistema que parecía no tenerlas porque había sido educado por internet.

Muchos han aprovechado el fiasco para acusar a Google de manipular su modelo para imponer una revisión oportunista de la historia con fines políticos. La realidad es que Google, Meta, Anthropic, Grok y OpenAI manipulan sus modelos al seleccionar los conjuntos de datos de su entrenamiento, diseñar los algoritmos de proceso y entrenar a los moderadores para que corrijan sus respuestas en tiempo real. Su aparente falta de estructura esconde un sistema de clases tan rígido y predecible como el del valle donde se cría esta generación de IA.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_