ChatGPT, dime, ¿cuánto contaminas?

En plena carrera por liderar el desarrollo de la inteligencia artificial, la huella medioambiental no está siendo prioritaria

Erik Isakson (GETTY IMAGES)

Para entrenar un modelo de lenguaje como ChatGPT se requieren miles de GPU [unidades de procesamiento de gráficos] y una gran cantidad de datos, lo que a su vez aumenta su impacto ambiental. Estas emisiones pueden tener consecuencias significativas para el cambio climático y la calidad del aire”. Así de sincero se muestra el chatbot de inteligencia artificial cuando se le pregunta sobre su propia contaminación.

Y es que ...

Suscríbete para seguir leyendo

Lee sin límites

Para entrenar un modelo de lenguaje como ChatGPT se requieren miles de GPU [unidades de procesamiento de gráficos] y una gran cantidad de datos, lo que a su vez aumenta su impacto ambiental. Estas emisiones pueden tener consecuencias significativas para el cambio climático y la calidad del aire”. Así de sincero se muestra el chatbot de inteligencia artificial cuando se le pregunta sobre su propia contaminación.

Y es que no solo preocupa hasta dónde puede llegar ChatGPT en su carrera frenética por mejorar a los humanos y sus repercusiones éticas, también inquietan las emisiones que lleva aparejadas su desarrollo, y mucho.

Ya en 2017 Greenpeace calculaba el consumo de energía de las tecnologías de la información en el 7% de los recursos globales, un porcentaje que estimaban iría a más. Solo un año después, en 2018, un estudio de la propia OpenAI, madre de las diferentes versiones de ChatGPT, apuntaba que la cantidad de potencia informática necesaria para ejecutar grandes modelos de inteligencia artificial (IA) se duplicaría cada tres meses y medio.

De momento, OpenAI no ha indicado cuál es el coste computacional y energético de sus desarrollos, pero estudios recientes de investigadores de Google estiman que el entrenamiento de GPT-3, el anterior modelo del chatbot, consumió 1.287 megavatios hora (MWh) y generó un volumen de emisiones superior a 550 toneladas de carbono, a las que hay que sumar las correspondientes a cada conversación, cifradas en millones.

Otros estudios, como el realizado por investigadores de las universidades estadounidenses de Riverside (California) y Arlington (Texas), concluyen que estos modelos conversacionales no solo necesitan una gran cantidad de electricidad, sino también de agua para refrigerar los centros de datos. El desarrollo de GPT-3 consumió alrededor de unos 700.000 litros, el equivalente, según los autores, a la necesaria para producir 370 coches BMW o 320 vehículos eléctricos Tesla. También han estimado lo que se bebe una conversación normal de entre 30 y 50 preguntas: una botella de medio litro.

“Tradicionalmente, los centros de datos se han fijado en tener la máxima eficiencia energética, pero últimamente también se está introduciendo el concepto de eficacia del uso de la escasez de agua (WSUE, en sus siglas en inglés)”, que considera esa carestía en la ubicación del centro de datos y el origen local de la producción de energía, detalla Jordi Rubió, consultor técnico en ciberseguridad en el departamento Fsafe de Fibratel, una compañía especializada en transformación digital.

Este experto añade, asimismo, la contaminación derivada de la fabricación de hardware especializado para inteligencia artificial, que “puede generar también una gran huella de carbono debido a la extracción de materiales, el consumo de energía y la problemática ambiental en el momento de la eliminación de desechos electrónicos”.

El consumo de la nube

Como se ve, una parte importante de este consumo proviene de los centros de datos encargados de guardar la información en la nube. Es uno de los sectores que más gasta, responsable del 1% de las emisiones de gases de efecto invernadero, según la Agencia Internacional de la Energía. Y este uso masivo de recursos podría aumentar dicha cuota.

Si hablamos de la tecnología, en general, entre el 2% y el 4% de las emisiones mundiales tiene su origen en ella. “La industria es conocedora de estos retos, pero ignoran, en gran medida, el impacto medioambiental de las tecnologías de la información. De hecho, solo el 43% de las empresas españolas muestra un nivel de concienciación sobre el impacto de sostenibilidad de las TI, y el 57% de los encuestados en nuestro estudio afirma desconocer la huella de carbono de las TI de su propia organización”, apunta Ramón Pérez Blanco, vicepresidente de porfolio y ventas de Capgemini en España, tomando como referencia el informe TI sostenible: por qué es hora de una revolución verde para la TI de su organización.

Para Pérez Blanco, en el caso de ChatGPT, “la disyuntiva es similar a cualquier tecnología avanzada que requiera capacidad de computación: las soluciones tecnológicas tienen un enorme potencial y pueden ayudar a resolver los problemas medioambientales, pero también conllevan su propia huella de carbono”.

Fran Ruiz, responsable de innovación en la consultora Stratesys, cree que existe concienciación por parte de la mayoría de los implicados, “pero la aceleración que estamos viviendo nos posiciona ante una carrera sin precedentes por liderar la creación de agentes autónomos y, eventualmente, la inteligencia artificial general (AGI). En ese proceso acelerado, el impacto medioambiental no está siendo lo más prioritario”, lamenta.

También Elena Jin, profesora del programa de blockchain e innovación digital del IEB, considera que, en medio de toda la novedad con ChatGPT, “quizás estemos pasando por alto el coste energético detrás de estas tecnologías, pero creo que seremos capaces de solucionarlo con el tiempo, y si hay interés en ello”. No obstante, recalca que existen “otras muchas actividades tecnológicas e industriales que consumen infinitamente más”.

Cómo mitigar el impacto de la IA

Para reducir el impacto ambiental de la inteligencia artificial (IA) “es necesario implementar nuevas tecnologías, adoptar prácticas sostenibles y generar conciencia entre los usuarios”, resume Fran Ruiz, responsable de innovación en Stratesys, quien propone cuatro medidas.
La primera, el uso de energías renovables para alimentar los centros de datos donde se ejecutan y entrenan los modelos. También la optimización de recursos, “reduciendo la cantidad de hardware y software necesaria para llevar a cabo las tareas sin comprometer la eficiencia”. 
A esto, Ruiz añade la aplicación de algoritmos verdes que “se centran en reducir la cantidad de energía y recursos necesarios para realizar una tarea, mientras se mantiene un alto nivel de eficiencia y rendimiento”. Y en cuarto lugar, la creación de conciencia entre los usuarios, ya que también es importante que las empresas y organizaciones responsables, así como los consumidores finales de la IA, sean conscientes del impacto ambiental de su uso.

Más información

Archivado En