La inteligencia exige responsabilidad: el impacto de la IA en las políticas ESG
De la implementación transparente y equilibrada de la inteligencia artificial depende gran parte de la sostenibilidad social y ambiental. Si por un lado es una herramienta clave para la gestión milimétrica y ahorro de recursos, por otro, es una consumidora voraz de energía

En el verano de 1956, algunos de los matemáticos, ingenieros y teóricos científicos más brillantes del pasado siglo se reunieron durante ocho semanas en la Universidad de Dartmouth, en Nueva Inglaterra (EE UU). La invitación que se envió a todos ellos es considerada el primer documento en el que se reflejan dos palabras que, décadas después, iban a cambiar el mundo de una manera similar a como lo hicieron la imprenta, la electricidad o internet: inteligencia artificial. Casi 70 años después de ese encuentro, todo lo que proyectaron aquellos científicos se está haciendo tangible, o incluso algo más: estamos ante una tecnología que ya está cambiando la manera en la que nos relacionamos con el mundo y, por supuesto, cómo entendemos el trabajo. Hasta tal punto que la consultora PwC cifra en un 14% el incremento que supondrá en el PIB mundial en el año 2030. Como todos los grandes avances tecnológicos, también provoca incertidumbre y nuevos desafíos. El mundo empresarial adquiere en ese contexto un papel clave en la aplicación y el desarrollo responsable de una tecnología transversal, que atraviesa todas las áreas de actividad y que exige el desarrollo de unos modelos de gobernanza claros y transparentes. Así se está preparando el gran salto tecnológico de nuestros días desde la Responsabilidad Social Corporativa.
Revolución tecnológica e impacto ambiental
Cada vez que hacemos una pregunta a una aplicación de IA como ChatGPT o DeepSeek, ponemos en marcha una tecnología que analiza millones de datos en segundos. Esa capacidad, que llevada a un escalón superior nos permite predecir comportamientos y situaciones del futuro próximo, tiene un importante coste medioambiental. Paradójicamente, también puede ayudarnos a reducirlo significativamente en los próximos años. Alberto Granados, presidente de la organización especializada en sostenibilidad y responsabilidad social empresarial Forética, explica esa dualidad: “Cuando tú le haces una pregunta a una IA, gasta alrededor de unos 2,9 vatios/hora, casi diez veces más que una búsqueda típica en internet”, apunta. “Si todas las IA generativas se incorporasen a todas las búsquedas diarias, estaríamos hablando de 10 teravatios por año; es decir, la producción de una gran planta nuclear”. El coste no es solo energético. “ChatGPT, por ejemplo, en su entrenamiento, consumió 700.000 litros de agua, prácticamente lo que consume una ciudad de 10.000 habitantes en un día”, añade Granados.
Sin embargo, los beneficios que puede aportar son mucho mayores, gracias a la capacidad que nos ofrece para optimizar procesos y reducir gasto energético. “Se estima que la IA aplicada al medio ambiente puede reducir las emisiones entre un 4% y un 8%”, explica Granados. “En agricultura ya se está utilizando para optimizar el uso de abonos y del riego, anticipándose a impactos climáticos, consiguiendo ahorros de emisiones en torno al 30%. También en redes inteligentes de energía eléctrica, con optimizaciones que están en torno a un 20% o un 30%. Tiene un coste medioambiental claro, pero por otro lado tiene una ventaja brutal en cuanto a la reducción de emisiones”.

Hasta tal punto la IA puede jugar un papel decisivo en el gran reto global que supone la sostenibilidad, que se considera clave para cumplir los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030. Clara Arpa, presidenta del Pacto Mundial de la ONU España, apunta a esa capacidad. “Si no cambia el progreso actual, el 18% de las metas en el marco de la Agenda 2030 es seguro que no se conseguirán”, explica. “Como afirma el secretario general de Naciones Unidas, Antonio Guterres, la inteligencia artificial podría ayudar a cambiar esta situación. Gracias a su capacidad para optimizar procesos, la IA puede reducir significativamente el desperdicio de recursos y mejorar la gestión energética en las empresas, lo que impacta directamente en la reducción de emisiones. Desde la optimización de cadenas de suministro hasta la mejora de la producción, la IA permite que las empresas tomen decisiones más informadas y sostenibles, utilizando menos energía para alcanzar los mismos o mejores resultados”, añade. No obstante, para lograrlo es imprescindible un uso responsable de esta tecnología. “El consumo masivo de recursos que requiere podría descompensar los esfuerzos de descarbonización. Por eso, antes de lanzarse a la integración de la IA, las empresas deben llevar a cabo un análisis lo más estricto posible para no entrar en conflicto con sus compromisos de sostenibilidad. La implementación, además de ser impulsada por su potencial innovador, debe estar basada en un proceso reflexivo y responsable que garantice su impacto positivo en el medio ambiente y la sociedad”, subraya Guterres.
Cambios en el sector profesional y el reto de la inclusión
Si en el aspecto ambiental el impacto de la IA es significativo, en el ámbito social, el segundo de los ejes sobre los que se sostiene el edificio de la ESG (siglas en inglés de “Environmental, Social, Governance”) es aún más palpable para la ciudadanía, asociado al consabido temor al cambio. Alberto Granados compara este momento con la llegada del automóvil, que a principios del siglo XX acabó con un gran número de empleos, pero ayudó a generar muchos más. “El Forum Económico Mundial proyecta que en 2030 la IA afectará al 15% de los empleos, pero generará en torno a un 25% de nuevos puestos de trabajo. Hay una oportunidad enorme de creación de empleo muy por encima de la destrucción”, afirma.
En este momento de cambio el reto es doble: formar o transformar a los profesionales para esta nueva etapa y no dejar a nadie atrás. “Para los que trabajamos en esto, hay una responsabilidad desde el punto de vista social que es la formación y el reskilling. La formación en IA es absolutamente necesaria”, manifiesta Granados. No solo para dotar de habilidades a los trabajadores ante nuevas profesiones, sino para mejorar los procesos de las ya existentes. El presidente de Forética apunta dos ejemplos: la educación y la sanidad. “La IA nos permite personalizar la enseñanza, poner ejercicios personalizados a un alumno que, por ejemplo, tenga dificultades con las ecuaciones de segundo grado, y liberar a profesores que pasan gran parte de su tiempo corrigiendo exámenes para que empleen ese tiempo hablando con el alumno y entendiendo sus necesidades”, apunta. En cuanto a la sanidad, pone un ejemplo concreto: “En la Comunidad de Madrid ya se utiliza IA para analizar retinas e identificar retinopatía diabética incipiente, o para ayudar a diagnosticar enfermedades infantiles raras. Lo fundamental es cómo empoderar al personal sanitario, cómo la IA es capaz de hacer que ese médico tenga más tiempo eficaz delante del paciente y que su juicio esté muchísimo más respaldado, aunque al final la decisión siempre va a ser suya”. El otro gran desafío reside en conseguir que sea una tecnología inclusiva. “Cuando hablamos de los riesgos de la inteligencia artificial, a menudo pensamos en la suplantación de identidad, en los derechos de autor o en los problemas relacionados con la privacidad, y ciertamente son puntos clave”, apunta Clara Arpa. “Sin embargo, la IA afecta de manera directa a las personas y los derechos humanos de una forma mucho más profunda. No se trata solo de proteger nuestros datos, sino de asegurarnos de que la IA no perpetúe sesgos, no fomente la polarización y sea inclusiva”.
La nueva tecnología debe ser inclusiva, transparente y auditable. no solo debe proteger datos; también debe asegurar que no se perpetúen los sesgos ni se fomente la polarización en la sociedad
Para ello, la regulación de esta tecnología es el primer paso, campo en el que la Unión Europea ha sido pionera con su Ley de Inteligencia Artificial aprobada en marzo de 2024 y que prohíbe prácticas como el scoring social, que clasifica a los usuarios según su poder adquisitivo, o el reconocimiento biométrico indiscriminado en espacios públicos. “Esta ley ya categoriza los sistemas por su nivel de riesgo y exige que estén documentados, sean trazables y auditables”, explica Sonsoles Rubio Reinoso, presidenta del Instituto de Auditores Internos de España. Ese marco, sin embargo, es solo el punto de inicio. “La ley es como poner un cauce a un río; primero se controla el flujo y luego se deja correr. Es la empresa la que debe crear una normativa interna de gobierno conocida por toda la organización”. Además, apunta a otro tema crítico: la protección de datos. “Muchas empresas están creando sus propios compilers o instancias privadas de modelos generativos para analizar su información de manera segura”, añade.
El desafío empresarial de una estrategia integral
Ante un tablero de juego que cambia las reglas de manera sustancial, y que añade nuevas variantes, el mundo empresarial también debe adoptar un enfoque distinto y, sobre todo, completamente transversal. Para Sonsoles Rubio Reinosa, el principal desafío es que las compañías que incorporen IA a su modelo de negocio sean conscientes de que es una tecnología transversal que implica a todos sus departamentos. “Las empresas deben establecer modelos de gobierno sólidos para controlar y desarrollar la IA de forma segura. Estos modelos deben categorizar el riesgo de cada aplicación, desde un simple algoritmo de automatización hasta una IA generativa que crea nuevo contenido”.
El motivo es doble, tanto por la parte puramente económica –“la IA no es una inversión barata y el retorno debe estar claro”, apunta– como especialmente por la transparencia. “Hay que asegurar que la IA sea explicable, que su razonamiento esté bien documentado y que sus decisiones sean trazables. Yo le recomendaría a las empresas que tengan una política de inteligencia artificial específica, o que incluyan este compromiso en sus políticas de tecnología y riesgo. Un compromiso público permite explicar y documentar el uso de la IA, mitigando riesgos como los sesgos no deseados”.
Por ese motivo, Alberto Granados aboga por la creación de comités especializados en la empresa que impliquen a todas las áreas. “Tiene que estar presente desde el CEO al responsable legal, al de tecnología, al de recursos humanos y a comunicación”, indica. También debe ser un esfuerzo continuado, no solo puntual. “La IA es un tren en marcha; se mueve con el tiempo, cambia absolutamente, con lo cual tienes que estar constantemente controlando el comportamiento de tus algoritmos. Tienes que estar constantemente tomando muestras de cómo se están comportando tus algoritmos para saber si en un momento ha habido cualquier desviación. Por eso siempre decimos que tiene que haber un humano en el bucle”.

De ese compromiso en la aplicación de esta tecnología depende, regulaciones aparte, el futuro no solo empresarial, sino de la sociedad que se construya para el futuro. “El sector privado tiene una oportunidad única para liderar el aprovechamiento de la inteligencia artificial para el desarrollo sostenible, pero esto solo será posible si analizamos sus impactos en términos sociales y ambientales”, apunta Clara Arpa. “La IA debe ser transparente en su diseño y funcionamiento, permitiendo que las decisiones tomadas a través de ella sean completamente comprensibles y auditables. Esto es clave tanto para evitar riesgos asociados a sesgos o errores como para garantizar la confianza de todos los actores involucrados, desde los empleados hasta los consumidores”, concluye.