Una inteligencia artificial de código abierto es posible (y muy necesaria)
Conseguir que el desarrollo de la IA sea accesible, democrático y transparente, como ocurrió con el de la World Wide Web, es crucial para nuestro futuro
Hay pocas cosas menos democráticas que un modelo generativo de inteligencia artificial. La clase de máquinas que requiere, la cantidad de recursos que consume, el volumen de datos con los que se entrena y el talento especializado que necesita convierten la carrera por sintetizar la inteligencia humana en el juego de unos pocos privilegiados. Y sin embargo, es crucial que existan alternativas abiertas al desarrollo pri...
Hay pocas cosas menos democráticas que un modelo generativo de inteligencia artificial. La clase de máquinas que requiere, la cantidad de recursos que consume, el volumen de datos con los que se entrena y el talento especializado que necesita convierten la carrera por sintetizar la inteligencia humana en el juego de unos pocos privilegiados. Y sin embargo, es crucial que existan alternativas abiertas al desarrollo privado de la inteligencia artificial para garantizar el beneficio de todos. Cómo conseguirlo, esa es la cuestión.
Meta e IBM acaban de presentar una alianza para impulsar una coalición de más de 50 empresas e instituciones basada en un modelo abierto de inteligencia artificial. “En lugar de tener docenas de empresas construyendo muchos modelos de IA diferentes, un modelo de código abierto crea un estándar de la industria, al igual que el modelo de Internet en 1992″, explicó Yann LeCun, jefe de IA de Meta, el pasado septiembre frente al Comité de Inteligencia del Senado de Estados Unidos. Un mes antes, Meta y Microsoft habían presentado Llama 2 como la próxima generación de, dijeron, “nuestro modelo de lenguaje grande de código abierto”. Y, sin embargo, la licencia de Llama 2 no ha sido aprobada por la Open Source Initiative, autoridad mundial en categorizar software de código abierto, porque no cumple los criterios necesarios.
En el mundo del software, abierto no equivale a gratuito. Y no basta con abrir parte del código para que otros lo usen gratis o desarrollen aplicaciones sobre él. Debe ofrecer acceso y transparencia suficientes para que otros puedan comprender el sistema y adaptarlo a sus necesidades sin pedir permiso, y sin costes de licencia o derechos de autor. Tampoco puede discriminar el acceso a ciertos usuarios o restringir el uso para ciertos propósitos. La licencia de Llama 2 prohíbe expresamente su uso para entrenar otros modelos de lenguaje y lo limita a 700 millones de usuarios al mes. La OSI ha exigido a Meta que modifique su licencia o deje de llamarla código abierto. Está por ver si la Alianza de la IA que ha anunciado con IBM será “abierta” solo de nombre o de verdad.
Lo llaman abierto y no lo es
“Los términos ‘abierto’ y ‘código abierto’ se utilizan de manera confusa y diversa, a menudo constituyendo más una aspiración o estrategia de marketing que un descriptor técnico, y mezclando con frecuencia conceptos tanto del software de código abierto como de la ciencia abierta”, se lee en Abierto (Para Negocios): Grandes Tecnológicas, Concentración de poder y la Economía Política de Open AI. Es el artículo de dos académicos de la Carnegie Mellon University (EE UU) y el AI Now Institute, y Meredith Whittaker, presidenta de Signal Foundation, la organización detrás del sistema de mensajería Signal. La confusión puede tener varias consecuencias.
Por ejemplo, la Ley de IA recientemente acordada en Europa reduce significativamente las responsabilidades de la IA de código abierto, salvo que entren dentro de la categoría de riesgo sistémico o se utilicen con fines prohibidos. Se entiende que su transparencia garantiza una supervisión comunitaria para la detección de errores y malas prácticas sin orden judicial. Pero, aparte del acceso a los “pesos” (los parámetros internos que el modelo aprende durante el entrenamiento y que usa para hacer predicciones o tomar decisiones), la transparencia de una IA implica información sobre los datos de entrenamiento. No podemos saber cómo “piensa” o entender los valores de un modelo sin saber lo que estudió.
También tiene consecuencias comerciales. Ofrecer acceso a una parte de un código para que otros construyan sus productos y servicios con él es una manera oblicua de establecer los estándares de la industria y conseguir que otros trabajen gratis para ti. Google y Meta abrieron con licencias muy permisivas dos entornos para construir y entrenar modelos de inteligencia artificial de aprendizaje profundo: TensorFlow y PyTorch. Como consecuencia, universidades, laboratorios, startups y otros miembros de la comunidad los usan para sus propios proyectos de investigación y desarrollo de aprendizaje profundo. Pero, al ofrecer acceso gratuito a su sistema, los dos gigantes se garantizan que todos los proyectos de código abierto son interoperables con sus productos, manteniendo una supervisión interesada sobre cualquier desarrollo interesante, y soberanía absoluta sobre el código original. Las licencias abiertas deben garantizar la soberanía sobre los proyectos y proteger a emprendedores, voluntarios e investigadores de trabajar gratis para una gran corporación.
No es física de partículas
Para que un modelo de IA sea de código abierto hace falta poder conocerlo, desmontarlo y reconstruirlo desde cero. Con el precio de salida, pocos pueden competir de manera individual. “Aunque existen algunos sistemas de inteligencia artificial realmente abiertos, que ofrecen transparencia, reutilización y extensibilidad intencionales y extensas, los recursos necesarios para construir IA desde cero y desplegar grandes sistemas de IA a escala siguen siendo ‘cerrados’, disponibles solo para aquellos con recursos significativos, casi siempre corporativos” reconoce el artículo de Whittaker y coautores. Pero podemos decir lo mismo de la física de partículas. Y el CERN, una organización financiada con los presupuestos nacionales de sus 23 países miembros, ha adoptado principios de código abierto, liberando muchos de sus proyectos y colaboraciones para beneficio de la comunidad global. Por ejemplo, la World Wide Web.
“No puedes proponer que algo sea un espacio universal y al mismo tiempo mantener el control sobre ello”, explicó Tim Berners-Lee, el ingeniero del CERN que un verano se inventó la web. En abril de 1993, CERN anunció que los tres elementos fundacionales de la www (cliente, servidor y código) entraban oficialmente en el dominio público: “El CERN renuncia a todos los derechos de propiedad intelectual sobre este código, tanto en su forma fuente como binaria, y otorga permiso a cualquier persona para utilizarlo, duplicarlo, modificarlo y distribuirlo”. Y un detalle crucial: “Los derechos de los usuarios serán protegidos, en particular, al evitar que terceros conviertan el software libre en software propietario y nieguen a los usuarios el derecho de utilizar libremente el material”.
La IA de código abierto existe, a menudo gracias al esfuerzo colectivo y al apoyo institucional. Andreas Liesenfeld, investigador del Centro de estudios del lenguaje de la Universidad de Radboud en Países Bajos publicó este verano un índice de accesibilidad de los modelos del lenguaje. El más abierto es BLOOMZ (basado en PyTorch) y desarrollado por The BigScience Research Workshop, un proyecto que incluye a la agencia francesa de supercomputación GENCI, IDRIS (dependiente del CSIC francés) e ingenieros de Hugging Face, la gran plataforma para el desarrollo colaborativo de IA. El segundo es el chatbot Open Assistant de LAION-AI, una ONG alemana cuyo objetivo es “poner a disposición del público en general modelos, conjuntos de datos y código relacionado de aprendizaje automático a gran escala”. Mistral, el unicornio francés fundado por exempleados de Google y Meta y liderado por el joven Arthur Mensch, se distribuye con una licencia Apache 2.0, pero está todavía en la mitad del ránking. Llama2 es uno de los menos abiertos del mercado. Moraleja: no nos fiemos de los nombres. El más cerrado y opaco de todos es el de OpenAI.
Apúntate aquí a la newsletter semanal de Ideas.