_
_
_
_

La ley de inteligencia artificial abre una brecha entre las grandes empresas preparadas y las que recurren a código abierto

Las compañías sin plataformas éticas tendrán que demostrar que sus desarrollos se ajustan a la norma en un entorno de pruebas

Inteligencia Artificial (IA)
Una niña, acompañada de un robot en un mercado de Osaka, en Japón, el pasado diciembre.Andy Kelly
Raúl Limón

La inteligencia artificial (IA) deja de ser un territorio sin ley. La aprobación de la norma europea (AI Act) se aplicará gradualmente en los próximos dos años a todo sistema que se utilice en la UE o afecte a sus ciudadanos y será de obligado cumplimiento para proveedores, implementadores o importadores. En este sentido, la ley abre una brecha entre las grandes empresas, que ya han previsto las limitaciones a sus desarrollos, y las entidades menores que quieran desplegar modelos propios a partir de las crecientes aplicaciones de código abierto (open source). Estas últimas, si no tienen capacidad de examinar sus sistemas, dispondrán de entornos de pruebas reglamentarios (sandboxes) para desarrollar y entrenar la IA innovadora antes de su introducción en el mercado. Pero su disponibilidad abre interrogantes sobre la capacidad de controlar sus usos, extendidos en la creación de pornografía no consentida y en campañas de fraude.

“Nos aseguramos de que la tecnología de IA que creamos se hace de forma responsable y ética desde el principio. IBM ha estado trabajando con organismos gubernamentales de todo el mundo para fomentar regulaciones inteligentes y efectivas, así como para proporcionar barreras de seguridad para la sociedad”, asegura Christina Montgomery, vicepresidenta y directora de Privacidad y Confianza en la multinacional.

Pilar Manchón, directora de estrategia de investigación en IA de Google y consejera del comité de asesoramiento del Gobierno español, coincide con esta apreciación durante un encuentro en la Universidad de Sevilla. “Necesitamos regulación porque la IA es demasiado importante para no tenerla. Hay que desarrollar la inteligencia artificial, pero hay que hacerlo bien”. La investigadora sintetiza las premisas incluidas en el AI Principles: “Es muy fácil de resumir: no hagas cosas malas, haz cosas buenas, y si vas a hacer algo, asegúrate de que va a tener un impacto positivo en la comunidad, en la sociedad, en la comunidad científica. Y, si potencialmente puede hacer algo que no es para lo que lo usaste o para lo que lo diseñaste, asegúrate de tomar todas las precauciones necesarias y mitigar los riesgos. Haz el bien, innova, sé audaz, pero de forma responsable”.

La integrante de Google afirma que en esta visión coinciden otras multinacionales. En este sentido, el presidente de Microsoft, Brad Smith, afirmaba en una reciente entrevista en EL PAÍS: “Necesitamos un nivel de regulación que garantice la seguridad”. Brad defiende que la ley europea lo hace al “examinar los estándares de seguridad e imponer una base para estos modelos”.

Del mismo modo piensa Jean-Marc Leclerc, jefe de Gobierno y Asuntos Reguladores de la UE para IBM, quien avala la ley europea, pide que se extienda y destaca el establecimiento de entidades oficiales que velen por la implementación ética de los sistemas, como prevé la regulación. Pero advierte: “Muchas de las organizaciones que pueden estar en el ámbito de aplicación de la ley de IA no han establecido la gobernanza en sus infraestructuras para respaldar el cumplimiento de la norma en sus procesos”.

La cautela de IBM responde a la proliferación de herramientas de código abierto, más baratas cuando no gratuitas y también eficaces. Pese a sus limitaciones para ser entrenadas, empiezan a acercarse a los desarrollos de las grandes compañías y se ofrecen libremente. El pasado mayo, un escrito de un ingeniero de Google que esta compañía no considera oficial sino la opinión particular del investigador, advertía de que la IA estaba escapando del control de las grandes empresas.

La empresa emergente Hugging Face lanzó hace un año una alternativa a ChatGPT, la popular aplicación conversacional de OpenAI, con código abierto. “Nunca abandonaremos la lucha por la IA de código abierto”, tuiteó Julien Chaumond, cofundador de esta empresa. Al mismo tiempo, Stability AI lanzaba su propio modelo e incluso la Universidad de Stanford se sumaba con su sistema Alpaca.

“Es un esfuerzo de la comunidad global para llevar el poder de la inteligencia artificial conversacional a todos, para sacarlo de las manos de unas pocas grandes corporaciones”, dice el investigador de IA y youtuber Yannic Kilcher en un video de presentación de Open Assistant, una de estas plataformas.

Joelle Pineau, directiva de Meta AI y profesora en la Universidad McGill, defiende al MIT Review, los sistemas de código abierto: “Es en gran medida un enfoque de libre mercado, del tipo muévete rápido, construye cosas. Realmente diversifica el número de personas que pueden contribuir al desarrollo de la tecnología y eso significa que no solo los investigadores o empresarios pueden acceder a estos modelos”.

Pero la propia Pineau admite los riesgos de que estos sistemas, si escapan de los criterios éticos y normativos que establece la ley, favorezcan la desinformación, los prejuicios y los discursos de odio o sirvan para fabricar programas maliciosos. “Hay que hacer un equilibrio entre la transparencia y la seguridad”, reflexiona Pineau.

“No soy una evangelista del código abierto”, dice a la misma publicación Margaret Mitchell, científica de ética de Hugging Face. “Veo razones por las que estar cerrado tiene mucho sentido”. Mitchell señala la pornografía no consentida (“Es uno de los principales usos de la IA para crear imágenes”, admite) como un ejemplo de la desventaja de hacer que los poderosos modelos sean ampliamente accesibles.

En cuanto a la utilización de estos sistemas por parte de ciberatacantes, Bobby Ford, jefe de seguridad de Hewlett Packard Enterprise, advierte durante el encuentro CPX celebrado en Viena: “Mi mayor preocupación en lo que se refiere a la IA generativa es que la adopción de la tecnología por parte del enemigo se produzca a un ritmo más rápido que el nuestro. El adversario tiene mucho tiempo para aprovechar la inteligencia artificial. Si no lo hacemos igual para defendernos de sus ataques, la guerra es asimétrica. Cualquiera con acceso a internet y un teclado puede ser un hacker [pirata informático]”.

Maya Horowitz, vicepresidenta de investigación de la empresa de ciberseguridad Check Point, es más optimista: “Los defensores están usando mejor la inteligencia artificial que los actores de amenazas. Tenemos docenas de motores de seguridad fundamentados en IA mientras los atacantes todavía están experimentando, tratando de entender cómo pueden usarlo. Hay algunas cosas. La más popular es redactar correos electrónicos de phishing [engaño mediante suplantación]. También experimentan con llamadas de voz falsas. Pero aún no están creando códigos maliciosos con esta tecnología. Aún no se le puede pedir a la IA que escriba un código para simplemente usarlo. Tiene que haber un codificador que sepa lo que hace. Creo que nuestro bando está ganando esta vez”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites
_

Sobre la firma

Raúl Limón
Licenciado en Ciencias de la Información por la Universidad Complutense, máster en Periodismo Digital por la Universidad Autónoma de Madrid y con formación en EEUU, es redactor de la sección de Ciencia. Colabora en televisión, ha escrito dos libros (uno de ellos Premio Lorca) y fue distinguido con el galardón a la Difusión en la Era Digital.
Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_