La decisión judicial que puede poner patas arriba la IA generativa

Un juez federal admite tramitar una demanda colectiva de ilustradores que reclaman el pago de derechos de autor a empresas que han usado su obra para entrenar sus algoritmos

La ilustradora Karla Ortiz, autora de esta obra, ha visto que algunas herramientas de IA generativa hacen dibujos con un estilo muy parecido al suyo.

Uno de los grandes problemas no resueltos en torno a la inteligencia artificial generativa tiene que ver con los derechos de autor. Para poder funcionar, estas herramientas necesitan procesar miles de millones de textos, imágenes o vídeos, de los que luego extraen patrones que les permiten crear ...

Suscríbete para seguir leyendo

Lee sin límites

Uno de los grandes problemas no resueltos en torno a la inteligencia artificial generativa tiene que ver con los derechos de autor. Para poder funcionar, estas herramientas necesitan procesar miles de millones de textos, imágenes o vídeos, de los que luego extraen patrones que les permiten crear contenidos aparentemente originales. Muchos creadores y artistas se quejan de que las empresas responsables de los modelos de IA usan su obra sin su consentimiento, o incluso de que reconocen su estilo personal en algunas de las creaciones de estos modelos.

Entre 2022 y 2023, un grupo de programadores, escritores, guionistas y artistas interpusieron cuatro grandes demandas colectivas (class actions, en inglés) contra las grandes desarrolladoras de IA generativa, entre ellas Meta, Microsoft u OpenAI. Uno de estos procesos, el iniciado por varios ilustradores, obtuvo hace dos semanas una victoria relevante: el juez del Distrito Norte de California William H. Orrick desestimó las alegaciones de las empresas denunciadas —Stability AI, responsable de Stable Diffusion; Runway AI; Deviant Art, y Midjourney— y admitió a trámite las principales reclamaciones de los demandantes.

Eso significa que el caso sigue adelante y que entrará en la llamada fase de descubrimiento. “Ahora es cuando se nos permite pedir documentos a los acusados y tomar declaraciones o testimonios. Solicitaremos a las empresas que entrenaron los modelos de generación de imágenes por IA que aporten información sobre cómo copiaron el trabajo de los demandantes y de qué forma la han usado en el desarrollo de sus herramientas”, explica a EL PAÍS Matthew Butterick, uno de los abogados que lleva esta demanda.

La ilustradora puertorriqueña Karla Ortiz, una de las demandantes, no oculta su euforia. “Ahora somos potencialmente uno de los mayores casos de la historia de infracción de derechos de autor. ¡Estamos emocionados por la siguiente etapa de nuestra lucha!”, dijo en redes en cuanto conoció la noticia. Ortiz, cuyos pinceles han contribuido a dar forma a personajes de taquillazos como Thor: Ragnarok, Doctor Strange o Jurassic World y miembro de la junta directiva de la Asociación de Arte Conceptual de Estados Unidos, se ha erigido como una de las grandes defensoras de su gremio ante la ola de la IA. “Mi trabajo está en riesgo. Consiste en mostrar ideas, y eso ahora lo hacen muy bien las máquinas. Los artistas no podemos competir contra esas herramientas. Nunca me había preocupado el futuro de mi carrera hasta ahora”, dijo a principios de año a este periódico.

Rodrigo Cetina, profesor de Derecho de la Barcelona School of Management, la escuela de negocios de la Universitat Pompeu Fabra, es experto en el ordenamiento jurídico estadounidense. Opina que el hecho de que la demanda se admita a trámite “es una señal de que el juez cree que probablemente sea afirmativa la respuesta a las preguntas clave: si se infringen derechos de autor en el entrenamiento de una IA y si es una infracción copiar miles de millones de imágenes de internet para entrenar tu modelo”.

Más concretamente, el juez ha aceptado evaluar la posible infracción de derechos de autor de Stability AI, Runway AI y Deviant Art y el uso fraudulento por parte de Midjourney de los nombres y estilos visuales distintivos de los artistas demandantes. Para decidir si las empresas tienen o no que compensar a los ilustradores, el magistrado deberá establecer si efectivamente “se han copiado sus obras o, por lo menos, pasan un umbral aceptable de copia, de maneras que no pueden considerarse usos justos”, apunta Cetina.

¿En qué se fijará exactamente el juez para resolver si la copia de las obras fue o no significativa? “Generalmente, se aplica un test desarrollado en jurisprudencia que considera cuatro factores: la naturaleza de la obra protegida, el propósito para el que se usa, qué tan sustancial es la proporción utilizada de una obra y el efecto del uso en cuestión en el potencial de mercado para las obras protegidas”, detalla Cetina. Se trata de un proceso complejo, y es difícil anticipar cómo valorará el juez los distintos factores.

Aunque los jueces californianos, recuerda este experto jurista, suelen ser proteccionistas con las industrias creativas, como sucedió por ejemplo con el caso Napster, el portal de intercambio online de archivos musicales que fue cerrado por decisión judicial en 2001. “Algo muy importante en el test de copia sustantiva es si se ha tenido acceso a las obras anteriores y si existe un alto grado de similitud entre la original y la supuestamente infractora. Así que, si la obra generada por la IA es suficientemente similar, ahí podría haber algo”, añade el Cetina.

El futuro de la IA pasa por los tribunales

El potencial de la IA generativa se dio a conocer al gran público en noviembre de 2022, cuando OpenAI presentó su herramienta estrella: ChatGPT. De repente, podíamos conversar con una máquina que parecía entendernos, que respondía con soltura a nuestras preguntas, que era capaz de seguir una conversación y que, tras unos meses en los que mentía más que hablaba, demostró ser relativamente fiable.

Ese fue solo el principio. No tardaron en aparecer otras herramientas, como Dall-E, Stable Diffusion o Midjourney, capaces de crear imágenes sofisticadas y realistas a partir de una serie de instrucciones escritas. Lo último en llegar han sido los generadores de vídeos hiperrealistas, como Sora, de OpenAI, cuyo potencial es técnicamente fascinante y éticamente aterrador.

Hubo quien olió el peligro desde el primer momento, cuando el mundo estaba en plena fase de asombro ante las posibilidades que ofrecía esta nueva tecnología. Butterick lo hizo en el verano de 2022, antes de la llegada de ChatGPT. Le puso en alerta el lanzamiento de GitHub Copilot, de Microsoft, una herramienta de programación —asistida con IA— que se entrena con una gran cantidad de software de código abierto. El estadounidense, que además de jurista es programador, presentó en noviembre de ese año una demanda que todavía no se ha resuelto contra Microsoft, acusándola de violar los acuerdos de licencia abierta.

Esa fue la primera andanada legal contra la IA generativa. En enero de 2023 llegaría la de los ilustradores, de la que acaba de haber novedades. En julio fue el turno de un grupo de escritores, que demandaron a OpenAI y Meta por incluir en sus bases de datos de entrenamiento libros escritos por ellos. En octubre del año pasado, varios sellos discográficos, incluyendo Universal Music Group, demandaron a Anthropic por entrenar sus algoritmos con materiales protegidos por derechos de autor.

Desde entonces se han multiplicado los pleitos: Getty Images demandó a Stability AI por usar sin permiso imágenes de sus archivos, The New York Times llevó a los tribunales a OpenAI y Microsoft por usar millones de artículos en el entrenamiento de ChatGPT y más escritores (entre ellos George R. R. Martin o Jonathan Franzen) se querellaron por los mismos motivos contra OpenAI.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Sobre la firma

Más información

Archivado En