El sucio secreto de la inteligencia artificial
El auge de herramientas como ChatGPT dispara las previsiones del consumo mundial de energía de los centros de datos, que podría quintuplicarse
Acciones ya cotidianas como consultar la mejor ruta para ir a algún sitio o traducir un texto requieren grandes cantidades de recursos energéticos, hidráulicos y minerales. Esas aplicaciones funcionan en la nube, un eufemismo para designar millones de potentes ordenadores organizados en extensos centros de datos. Para que las aplicaciones del móvil funcionen hacen falta legiones de computadoras que almacenen billones de datos y hagan operaciones en fracciones de segundo (por ejemplo, el cálculo de distancias teniendo en cuenta el tráfico). Se estima que el consumo energético de los centros de ...
Acciones ya cotidianas como consultar la mejor ruta para ir a algún sitio o traducir un texto requieren grandes cantidades de recursos energéticos, hidráulicos y minerales. Esas aplicaciones funcionan en la nube, un eufemismo para designar millones de potentes ordenadores organizados en extensos centros de datos. Para que las aplicaciones del móvil funcionen hacen falta legiones de computadoras que almacenen billones de datos y hagan operaciones en fracciones de segundo (por ejemplo, el cálculo de distancias teniendo en cuenta el tráfico). Se estima que el consumo energético de los centros de datos supone entre el 1% y el 2% del total mundial. Pero todo apunta a que estas cifras se van a disparar.
La inteligencia artificial (IA) generativa, la que hace posible los chatbots inteligentes como ChatGPT, así como las herramientas que generan ilustraciones originales o música a partir de texto, necesita mucho poder de computación. Las grandes tecnológicas, con Microsoft y Google a la cabeza, han decidido integrar estas funcionalidades en los buscadores, en los editores de texto o en el email. Nuestra relación con los programas de uso habitual va a cambiar: hasta ahora, apretábamos una serie de comandos para llevar a cabo ciertas actividades; dentro de poco nos encontraremos conversando con la máquina, pidiéndole tareas que antes hacíamos nosotros.
¿Qué efecto tendrá en el medio ambiente este cambio de paradigma? Nadie lo sabe, pero todas las estimaciones son al alza. “La IA puede parecer etérea, pero está moldeando físicamente el mundo”, sentencia Kate Crawford en Atlas of AI. La australiana, investigadora principal de Microsoft Research y directora del AI Now Institute, alertó hace dos años de que los “costes planetarios” asociados a esta tecnología no paran de crecer. Algunos científicos calculaban hace cuatro años que el sector tecnológico supondría el 14% de las emisiones mundiales para 2040; otros, que la demanda energética de los centros de datos se multiplicará por 15 hasta 2030.
Todas esas previsiones pueden quedarse cortas. Son de antes de la irrupción de ChatGPT. Google y Microsoft acumulan centenares de millones de usuarios. ¿Qué pasa si todos ellos empiezan a usar herramientas apoyadas en IA generativa? El canadiense Martin Bouchard, cofundador de los centros de datos Qscale, cree que se necesitaría al menos cuatro o cinco veces más potencia computacional por cada búsqueda. Preguntados por sus niveles de consumo actuales y por sus previsiones de crecimiento en la era de la IA generativa, Google y Microsoft han preferido no aportar a este periódico datos concretos, más allá de reiterar su intención de alcanzar la neutralidad de carbono para 2030. Para Crawford, eso “significa que compensan sus emisiones comprando el crédito de la gente” a través de acciones de maquillaje medioambiental, como plantar árboles u otras acciones similares.
“La IA generativa produce más emisiones que un buscador corriente, que también consume mucha energía porque al fin y al cabo son sistemas complejos que bucean en millones de páginas web”, indica Carlos Gómez Rodríguez, catedrático de Computación e Inteligencia Artificial de la Universidad de La Coruña. “Pero la IA genera todavía más emisiones que los buscadores, porque usa unas arquitecturas basadas en redes neuronales, con millones de parámetros que hay que entrenar”.
¿Cuánto contamina la IA?
Hace un par de años que la huella de carbono de la industria informática alcanzó a la de la aviación cuando estaba en su máximo. Entrenar un modelo de procesamiento natural del lenguaje equivale a tantas emisiones como las que expulsarán cinco coches de gasolina durante toda su vida, incluyendo el proceso de fabricación, o 125 vuelos de ida y vuelta entre Pekín y Nueva York. Más allá de las emisiones, el consumo de recursos hídricos para la refrigeración de los sistemas (Google gastó 15.800 millones de litros en 2021, según un estudio de Nature, mientras que Microsoft declaró 3.600 millones de litros), así como la dependencia de metales raros para elaborar los componentes electrónicos, hacen de la IA una tecnología con grandes repercusiones en el medio ambiente.
Entrenar un modelo de procesamiento natural del lenguaje equivale a tantas emisiones como las que expulsarán cinco coches de gasolina durante toda su vida
No existen datos sobre cuánta energía y de qué tipo consumen las grandes tecnológicas, las únicas con una infraestructura lo suficientemente robusta como para entrenar y alimentar los grandes modelos de lenguaje en los que se apoya la IA generativa. Tampoco hay cifras concretas de la cantidad de agua que gastan para refrigerar los sistemas, cuestión que ya está provocando tensiones en países como EE UU, Alemania u Holanda. Las empresas no están obligadas a facilitar esa información. “Lo que tenemos son estimaciones. Por ejemplo, entrenar GPT3, el modelo en el que se basa ChatGPT, habría generado unas 500 toneladas de carbono, el equivalente a ir y volver a la Luna en coche. Tal vez no es mucho, pero hay que tener en cuenta que el modelo se tiene que reentrenar periódicamente para incorporar datos actualizados”, sostiene Gómez. OpenAI acaba de presentar otro modelo más avanzado, GPT4. Y la carrera seguirá.
Otra estimación dice que el uso que se había hecho de electricidad en enero de 2023 en OpenAI, la empresa responsable de ChatGPT, podría equivaler al uso anual de unas 175.000 familias danesas, que no son las que más gastan. “Esto son proyecciones con las cifras actuales de ChatGPT; si se generaliza todavía más su uso, podríamos estar hablando de un consumo equivalente de electricidad de millones de personas”, añade el catedrático.
La opacidad de datos empezará a disiparse próximamente. La UE es consciente del creciente consumo energético de los centros de datos. Bruselas tiene en marcha una directiva que se empezará a discutir el año que viene (y, por tanto, tardaría al menos dos años en entrar en vigor) que fija exigencias de eficiencia y transparencia energética. EE UU trabaja en una normativa similar.
El costoso entrenamiento de los algoritmos
“Las emisiones de carbono de la IA se pueden descomponer en tres factores: la potencia del hardware que se utiliza, la intensidad de carbono de la fuente de energía que lo alimenta y la energía que se usa en el tiempo que dura el entrenamiento del modelo”, explica Álex Hernández, investigador posdoctoral en el Instituto de Inteligencia Artificial de Quebec (MILA).
Es en el entrenamiento donde se concentran la mayor parte de las emisiones. Ese entrenamiento es un proceso clave en el desarrollo de los modelos de aprendizaje automático, la modalidad de IA que más rápido ha crecido en los últimos años. Consiste en mostrarle al algoritmo millones de ejemplos que le ayuden a establecer patrones que le permitan predecir situaciones. En el caso de los modelos de lenguaje, por ejemplo, se trata de que cuando vea las palabras “la Tierra es” sepa que tiene que decir “redonda”.
El uso de electricidad en enero de 2023 en OpenAI, la empresa responsable de ChatGPT, equivale al uso anual de unas 175.000 familias danesas
La mayoría de los centros de datos utilizan unos procesadores avanzados llamados GPU para realizar el entrenamiento de los modelos de IA. Los GPU necesitan muchísima energía para funcionar. El entrenamiento de los grandes modelos de lenguaje requiere de decenas de miles de GPU, que necesitan operar día y noche durante semanas o meses, según detalla un reciente informe de Morgan Stanley.
“Los grandes modelos de lenguaje tienen una arquitectura muy grande. Un algoritmo de aprendizaje automático que te ayude a elegir a quién contratar quizás necesite 50 variables: dónde trabaja, qué salario tiene ahora, experiencia previa, etcétera. GhatGPT tiene más de 175.000 millones de parámetros”, ilustra Ana Valdivia, investigadora postdoctoral en computación e IA en King’s College London. “Hay que reentrenar toda esa especie de estructura, y además alojar y explotar los datos sobre los que se trabaja. Ese almacenaje también tiene un consumo”, añade.
Hernández, del MILA, acaba de presentar un artículo en el que analiza el consumo energético de 95 modelos. “Hay poca variabilidad del hardware usado, pero si entrenas tu modelo en Quebec, donde la mayoría de la electricidad es hidroeléctrica, reduces en un factor de 100 o más las emisiones de carbono respecto a lugares donde predomina el carbón, el gas u otros”, subraya el investigador. Se sabe que los centros de datos chinos se alimentan en un 73% de electricidad generada con carbón, lo que supuso la emisión de al menos 100 millones de toneladas de CO₂ en 2018.
Dirigido por Yoshua Bengio, cuya aportación en las redes neuronales profundas le valió el premio Turing (considerado el Nobel de la informática), el MILA ha desarrollado una herramienta, Code Carbon, capaz de medir la huella de carbono de quienes programan y entrenan algoritmos. El objetivo es que los profesionales la integren en su código para saber cuánto emiten y que eso les ayude a tomar decisiones.
Más capacidad computacional
Existe el problema añadido de que la capacidad de computación necesaria para entrenar los mayores modelos de IA se duplica cada tres o cuatro meses. Así lo reveló ya en 2018 un estudio de OpenAI, que también avisaba de que “merece la pena prepararse para cuando los sistemas necesiten unas capacidades mucho mayores a las actuales”. Es una velocidad muy superior a la que marcaba la Ley de Moore, según la cual el número de transistores (o potencia) de los microprocesadores se duplica cada dos años.
“Teniendo en cuenta los modelos que se están entrenando en la actualidad, sí que hace falta más capacidad computacional para garantizar su funcionamiento. Seguramente, las grandes tecnológicas ya están comprando más servidores”, augura Gómez.
Para Hernández, las emisiones derivadas del uso de la IA es menos preocupante por varios motivos. “Hay mucha investigación dirigida a reducir el número de parámetros y complejidad de la energía que necesitan los modelos, y eso mejorará. Sin embargo, no hay tantas formas de reducirlas en el entrenamiento: ahí hace falta semanas de uso intensivo. Lo primero es relativamente sencillo de optimizar; lo segundo, no tanto”.
Una de las posibles soluciones para que los entrenamientos sean menos contaminantes sería reducir la complejidad de los algoritmos sin perder eficacia. “¿Realmente hacen falta tantos millones de parámetros para lograr modelos que funcionen bien? GhatGPT, por ejemplo, ha demostrado tener muchos sesgos. Se está investigando la forma de lograr los mismos resultados con arquitecturas más simples”, reflexiona Valdivia.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.