_
_
_
_
columna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

GPT-4 está alineado, pero con qué

En una industria que aspira a ser cada vez más indistinguible de la magia, es más importante que nunca señalar la distancia entre lo que dicen los presuntos visionarios y lo que realmente hacen

Representación de datos digitales.
Representación de datos digitales.UNSPLASH/CC/CONNY SCHNEIDER (UNSPLASH/CC/CONNY SCHNEIDER)
Marta Peirano

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

En su famoso artículo científico de 1960, titulado Algunas consecuencias morales y técnicas de la automatización, Norbert Wiener advierte que si, para conseguir nuestros propósitos, utilizamos un agente mecánico cuya operación no podemos intervenir de forma efectiva una vez ha sido activada, tenemos que estar extremadamente seguros de que el propósito programado en la máquina es el propósito que realmente deseamos. Este alineamiento entre la intención humana y el programa de la máquina es uno de los problemas fundamentales de la Inteligencia Artificial. También es el concepto al que se refirió Sam Altman la semana pasada cuando presentó GPT4 como “su modelo más capaz y alineado hasta la fecha”.

El astuto CEO de OpenAI invoca al padre de la cibernetica para ofrecer una imagen de responsabilidad y seguridad en el lanzamiento del producto que ha desbocado el mercado de los modelos generativos. Y sin embargo, el lanzamiento de GPT4 incluye un paper de 98 páginas de pretensiones académicas pero naturaleza publicitaria donde se puede leer lo siguiente: “Dada la competencia en el mercado y las implicaciones de seguridad de modelos a gran escala como el GPT-4, este informe no contiene más detalles sobre la arquitectura (incluyendo el tamaño del modelo), hardware, capacidad de cómputo de entrenamiento, construcción de conjuntos de datos, método de entrenamiento o similar”. En otras palabras, es imposible saber cómo y con qué material ha sido entrenado el modelo. Eso elimina la posibilidad de determinar con qué intereses y objetivos ha sido programado el modelo más alineado de la empresa de Altman. Irónicamente, se sigue llamado OpenAI.

Los Grandes Modelos de Lenguaje —Large Language Model o LLM— consisten en un algoritmo de aprendizaje profundo entrenado con grandes cantidades de texto, organizado en bases de datos. Estos elementos ya suponen un reto para la alineación. Las Redes Neuronales Profundas son opacas hasta para sus propios desarrolladores y las bases de datos suelen ser una representación pobre o sesgada del mundo. Pero hay estrategias que pueden acercarnos al objetivo. En su imprescindible The Alignment Problem, Brian Christian ofrece tres puntos de apoyo: representación, justicia y transparencia.

Haz que tu opinión importe, no te pierdas nada.
SIGUE LEYENDO

La representación se refiere al entrenamiento. Es necesario que los data sets sean un reflejo del mundo en el que quiere operar la IA. La justicia, a los sesgos. Un sistema judicial injusto o una cultura de empresa machista producen bases de datos que reflejan esos valores. Si entrenamos una IA con sus ejemplos, estaremos automatizando ese patrón. Finalmente, la transparencia es la única garantía de que los dos primeros puntos han sido abordados por la empresa que desarrolla el modelo, y que se ha invertido el tiempo y el esfuerzo necesario en que sea seguro para usuarios, sistemas y empresas, antes de empezar a mediar en todos los aspectos de nuestra vida.

GPT-4 es una caja negra. En una industria que aspira a ser cada vez más indistinguible de la magia, es más importante que nunca señalar la distancia entre lo que dicen los presuntos visionarios y lo que realmente hacen. En este caso, fundar un laboratorio de investigación con la intención expresa de garantizar un desarrollo transparente de una tecnología de enorme potencial transformador y hacer exactamente lo opuesto.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_