Regúlame: esto de la inteligencia artificial es muy gordo (y será mío)
El catastrofismo de los reyes de este negocio trata de distraernos de los abusos que ya están cometiendo las tecnológicas. Y busca poner barreras a otros competidores.
Reguladnos ya, dicen los jefes de la inteligencia artificial. Lo que tenemos entre manos es muy gordo, revolucionario, tanto que las máquinas nos desplazarán a los humanos, nos esclavizarán, esto puede acabar en la extinción de la especie. Reguladnos ya, dicen, ...
Reguladnos ya, dicen los jefes de la inteligencia artificial. Lo que tenemos entre manos es muy gordo, revolucionario, tanto que las máquinas nos desplazarán a los humanos, nos esclavizarán, esto puede acabar en la extinción de la especie. Reguladnos ya, dicen, como a las empresas de armamento: queremos ser inspeccionados, operar solo mediante licencia... Reguladnos, esto no lo dicen, para levantar barreras a las empresas pequeñas, o a los proyectos colaborativos que usen código abierto; para evitar que cada compañía u organización pueda tener su sistema de IA a medida si no ha pasado por nuestra caja.
Está pasando esto: los propios impulsores de la IA —encabezados por el hombre de moda: el creador de OpenAI, Sam Altman, también están los primeros ejecutivos de Google DeepMind y de Anthopic—, son los que meten más prisa por regular su actividad. Con ello, en primer lugar, se dan mucha importancia: es puro marketing. Y eso que todavía es atrevido llamar inteligencia a lo que hacen estos algoritmos, y no es del todo artificial lo que está alimentado por nosotros las personas físicas. La temida Inteligencia Artificial General, la que compendiará todo el conocimiento de la humanidad y sobrepasará todas las capacidades de los mortales, sigue siendo un sueño (o pesadilla) que está muy lejos. Pero este campo dará saltos rápidos, no hay duda de eso.
Vamos camino de que a eso que llaman web3 (descentralizada, democrática, libre del control de grandes corporaciones) le pase lo mismo que a la web2 (la de las redes sociales), que también iba a empoderar a la ciudadanía y solo reforzó al oligopolio de los servicios digitales. Lo que ha pasado hasta ahora es el efecto “el ganador se lo lleva todo”, que además de una bonita canción de Abba es la regla que ha llevado a una concentración de poder desmedido en un puñado de empresas. Es por lo que, a grandes rasgos, Google domina la navegación; Amazon, el comercio electrónico; Microsoft, los sistemas operativos y programas para PC; Apple, el segmento chic de dispositivos. Facebook (Meta) era uno de esos ganadores, casi hegemónico en las redes sociales, pero la emergencia de otras como TikTok y su insensata apuesta a todo o nada por el metaverso le han hecho descolgarse de la élite. Al grupo de empresas billonarias entra ahora Nvidia, gracias, precisamente, a sus avances en la IA.
Lo que está en juego es quién será el ganador que se lo lleve todo con la IA. Microsoft, con su alianza con OpenIA (creadora de ChatGPT) está bien colocada; Google está espabilando porque su negocio de búsquedas está amenazado; y Nvidia reclama su sitio entre los grandes con una trayectoria menos mediática pero muy solvente en el procesamiento de gráficos y la computación de alto rendimiento. Eso en Occidente: los gigantes de Asia van a tener un buen trozo de la tarta.
¿Hay que regular la IA? ¡Por supuesto! No lleguemos tan tarde como a las redes sociales, que son hoy una selva. Las leyes y reglamentos deberán proteger los derechos y la privacidad de los ciudadanos, evitar una vigilancia masiva y universal, prevenir campañas masivas de desinformación y manipulación política más eficaces que las que ya sufrimos, atajar la discriminación. Muy en particular, habrá que regular la protección de la propiedad intelectual, porque la IA traga todo tipo de información, que no es suya, para hacer de las suyas. No solo están en peligro los derechos de autor de los creadores, que ya sufrieron una plaga de piratería en torno al cambio de siglo; tus propios datos y tu misma imagen personal son tuyos, y una aplicación no debería poder apropiarse de ellos.
Y uno de los aspectos más delicados por delimitar es qué decisiones pueden ser confiadas a una IA y cuáles no: ¿permitimos que las máquinas resuelvan la selección de personal, la concesión de hipotecas, la libertad condicional de un preso? ¿Dejamos a las máquinas autónomas militares o policiales elegir si disparan a un objetivo? Todos esos son debates muy urgentes, y deben llevar a decisiones rápidas. Pero ¿hay que regular que solo puedan operar con inteligencia artificial, mediante licencias, un puñado de grandes empresas? Más bien lo contrario: la legislación deberá estimular la competencia, en vez de repetir errores del pasado.
Algunos dicen: no vamos a poder regular mucho la IA porque ni sus propios ingenieros entienden del todo cómo funciona una máquina que aprende sola. Un argumento endeble: no hace falta meterse en las tripas de programas muy complejos: basta con examinar (evaluar, auditar) sus resultados. Y, por el momento, un ingenio como ChatGPT nos sorprende por el uso más o menos natural del lenguaje (aunque lo hace mejor en inglés), pero por nada más. No da información precisa, se inventa mucho de lo que dice, comete errores de bulto que serían inaceptables en cualquier profesión. Y la IA, es sabido, hereda los sesgos humanos a través de la información y los parámetros que se le han suministrado: prejuicios de género, étnicos, de clase y muchos más.
El catastrofismo que imagina una tiranía de las máquinas en un futuro distópico suena muy aterrador, pero responde a intereses más mundanos. Porque ese debate sobre el apocalipsis nos distrae de los abusos que ya están cometiendo estas aún rudimentarias tecnologías, entre ellos una extracción no siempre evidente del talento ajeno. Regulemos la IA, claro que sí. Pero no al dictado de sus dueños.
Ricardo de Querol es autor de ‘La gran fragmentación’ (Arpa).
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.