La inteligencia artificial (IA) ya no es una promesa del mañana: es una realidad adoptada a gran escala. Sólo hace tres años, los despliegues de modelos generativos eran experimentales; hoy, plataformas, herramientas y procesos basados en IA forman parte de la operativa diaria de cientos de miles de organizaciones. Según estimaciones recientes, el número de usuarios regulares de IA se cifra entre 500 y 900 millones, y podría superar los 1.700 millones si se suman los usuarios ocasionales
Este crecimiento explosivo entraña un ‘lado B’: el impacto sobre los recursos, especialmente energía, agua e infraestructura, asociado a la plataforma digital que la IA requiere.
En 2022 en Estados Unidos, el país que lidera el desarrollo y uso de IA, los centros de datos consumieron aproximadamente 17 gigavatios (GW) de potencia en operación, una cifra que equivale al consumo continuo de unas 17 centrales nucleares promedio de 1 GW cada una. En paralelo, el consumo de agua asociado a estos centros ya es significativo: algunos grandes centros pueden llegar a utilizar 19 millones de litros al día.

Estos datos colocan al sector de los centros de datos como un actor clave en la transición energética: no sólo por su creciente demanda de electricidad, en un contexto en que la demanda general lleva años estancada, sino también por su impacto sobre los recursos hídricos, particularmente en regiones con escasez de agua.
Adoptar IA para mejorar la sostenibilidad no debe ser una reacción táctica, sino parte de una estrategia corporativa más amplia
ANTONIO PITA, UOC
Y el crecimiento no va a parar, ya que según la International Energy Agency (IEA), la demanda global de electricidad de los centros de datos podría más que duplicarse para 2030.
Índice de temas
Efectos colaterales
Podemos pensar que esto no va a afectar a nuestra compañía, que sólo afecta a los grandes gigantes tecnológicos que están en su carrera por alcanzar la Inteligencia Artificial General (AGI), y por tanto podemos centrarnos en lanzar iniciativas de IA y celebrar los resultados de negocio. Al fin y al cabo, el consumo importante se realiza en el entrenamiento del modelo. En nuestras empresas, simplemente vamos a consumirlos.
Pero esto no es así. Si bien una consulta puntual a un modelo de IA puede consumir una cantidad de energía “mínima”, la acumulación, la proliferación y la dependencia creciente que se espera en las empresas que están adoptando IA en sus procesos y en sus productos, generan un volumen de uso que empieza a poner presión real en la infraestructura eléctrica local presentando riesgos que deberán ser mitigados por las empresas.
Para un ejecutivo tecnológico, el reto es claro: incorporar en la ecuación aspectos de eficiencia, escalabilidad y sostenibilidad a la hora de incorporar tecnologías y sobre todo IA. Porque el problema no es cada acción aislada, sino la escala global y la velocidad de adopción, que va a poner a prueba todos los sistemas tecnológicos de las compañías y las infraestructuras eléctricas de todos los países.
La huella invisible de la inteligencia artificial
La expansión de la inteligencia artificial (IA) al escenario empresarial y de consumo ha desencadenado un reto estructural para la infraestructura tecnológica: el aumento del consumo energético y de recursos que acompaña a su escala. Este impacto no siempre es visible a primera vista, por eso lo denominamos “huella invisible”, pero tiene implicaciones directas para la eficiencia operativa, los costes, la sostenibilidad y la reputación corporativa.
Comenzamos con un detalle revelador: una consulta típica a un modelo de lenguaje grande (LLM) se estima en torno a 0,34 Wh de electricidad, para los modelos más eficientes. Pero ¿esto es mucho o es poco?
Si lo queremos poner en perspectiva, unas matemáticas sencillas nos muestran que recorrer 10 kilómetros con un coche eléctrico gasta lo mismo que ver unas 7 horas de vídeos, hacer 4.000 consultas a ChatGPT, o tener el horno encendido durante media hora.
No parece un gasto energético muy elevado. Y efectivamente no lo es a nivel consulta individual. Pero, aunque cada individuo haga unas pocas consultas al día, como es una herramienta global, al final del día las contamos por cientos de millones en un país como España. Si a esto le sumamos la cantidad de sistemas de IA que comienzan a interactuar con otros sistemas de IA, en pocos meses podemos afrontar unos volúmenes muy elevados.
Infraestructura y velocidad: una carrera desigual
Cada ola tecnológica ha tenido su ritmo. La adopción de internet llevó más de una década en consolidarse; la computación en la nube, casi quince años; incluso la revolución móvil necesitó tiempo para que redes, hardware y hábitos de uso maduraran.
La inteligencia artificial, en cambio, ha comprimido ese proceso en apenas tres años.
El crecimiento de usuarios, la aparición de modelos cada vez más grandes y el entusiasmo del mercado han provocado que la curva de adopción de la IA supere con creces la curva de desarrollo de infraestructura energética y digital. Esto ha creado un desajuste estructural que ya empieza a manifestarse: mayor presión sobre las redes eléctricas, sobrecostes en refrigeración y cuellos de botella en la disponibilidad de chips y centros de datos.
El más claro ejemplo es OpenAI.OpenAI lanzó ChatGPT en noviembre de 2022. En menos de dos meses alcanzó 100 millones de usuarios, convirtiéndose en la aplicación de crecimiento más rápido de la historia. Hoy, según estimaciones del mercado, más de 1.000 millones de personas utilizan alguna herramienta basada en IA generativa y se estima que llegan a 1.700 millones si incluimos los usuarios ocasionales. Por ponerlo en relieve, ya hay más personas que usan IA que automóviles circulando en todo el mundo, en menos de 3 años.
Esto está generando todo tipo de presiones sobre las infraestructuras a lo largo de todo el mundo. En la columbia británica (Canadá) se busca limitar el consumo de energia de las empresas de inteligencia artificia y minería de criptomonedas,
En Georgia (EEUU), la red eléctrica estatal ha tenido que aprobar inversiones extraordinarias para garantizar el suministro energético a los nuevos centros de datos de IA, anticipando un aumento del consumo del 17 % en cinco años.
En Irlanda, que han basado su crecimiento económico en ser el centro europeo de los gigante cloud, el operador nacional ha impuesto restricciones temporales a nuevas instalaciones de centros de datos para evitar la saturación de la red.
Y en España, no somos ajenos a este problema, la saturación de la red choca con el auge de los centros de datos, y muchas solicitudes de acceso y conexión a la red se rechazan. En 2024, el 49% de la energía solicitada fue rechazada, el 41% sigue en trámite y solo el 9% ha sido autorizado. De hecho, la Asociación de Empresas de Energía Eléctrica, aeléc, emitió recientemente un informe indicando que el 83% de los nodos de la red de distribución ya están saturados.
¿Todo esto lo ha provocado la Inteligencia Artificial?, por supuesto que no. Hay muchos factores que han influido, el crecimiento de internet, la transformación digital, las necesidades del coche eléctrico, etc….
Pero ahora nos encontramos en pleno estallido de la IA con unas infraestructuras que no están preparadas.
Eficiencia y sostenibilidad en la era de la IA
La sostenibilidad tecnológica no es un freno a la innovación: es un acelerador inteligente. En un entorno donde la demanda de IA crece exponencialmente y los recursos energéticos y de infraestructura son finitos, la eficiencia se convierte en una ventaja competitiva. Adoptar la IA de forma inteligente significa elegir el cuándo, el cómo y el qué para asegurar que el uso sea eficiente y productivo.
Para lograrlo, las empresas deben tomar cuatro decisiones estratégicas:
- ¿Dónde alojar la IA? (Infraestructura) Decidir si la IA vive en la nube, en servidores propios (on-premise) o en un híbrido. Esta elección va más allá del costo: debe considerar la capacidad de la red, la cercanía a los usuarios y la resiliencia ante fallos. Es vital descentralizar los datos en diferentes geografías para evitar un colapso total del negocio.
- Diseñar con un Propósito Claro Antes de lanzar cualquier iniciativa de IA, pregúntese: ¿Para qué sirve? ¿Cómo se integra en mi trabajo? Sin un plan claro, la IA se vuelve un «consumidor fantasma» que gasta dinero y energía sin generar valor. Diseñar con propósito asegura que cada inversión en tecnología tenga un retorno real.
- Usar el Tamaño de Modelo Correcto No siempre el modelo más grande es el mejor. Usar una IA «gigante» para una tarea simple es una práctica insostenible que dispara el consumo y el costo (la regla es: «No mates moscas a cañonazos»). Hoy, muchos problemas se resuelven de manera más rápida y económica con modelos ligeros o especializados (Small LLMs), que consumen hasta un 95% menos de energía.
- Medir y Optimizar Sin Parar La eficiencia no se logra con una única decisión, sino con una gestión continua. Es fundamental medir el rendimiento y el consumo para detectar excesos, usos indebidos y servicios ineficientes. Además, esta vigilancia permite estar listos para adoptar las nuevas versiones de IA, más eficientes, que constantemente reducen costos y mitigan problemas energéticos.
La IA como parte de la solución
Paradójicamente, es la primera vez que la misma tecnología que está tensionando las redes eléctricas y los recursos naturales puede convertirse en el mayor aliado para optimizar el uso energético global. La clave está en cambiar la mentalidad: pasar de una IA centrada en el usuario final (modelos de lenguaje, generación de contenidos, automatización masiva) a una IA orientada a la eficiencia sistémica. ¡Qué la IA nos ayude con el problema!
Por ejemplo, el proveedor europeo de nube OVHcloud está aplicando algoritmos de IA para predecir picos de consumo y ajustar la refrigeración en tiempo real, reduciendo el uso energético hasta en un 20%.
Adoptar IA para mejorar la sostenibilidad no debe ser una reacción táctica, sino parte de una estrategia corporativa más amplia. Más allá del consumo energético directo, la IA está ayudando a las empresas a optimizar sus operaciones logísticas y productivas.
La transición hacia una IA más eficiente no implica renunciar a la innovación, sino evolucionar hacia un modelo de inteligencia responsable, cada consulta y cada byte procesado tenga un propósito claro y un impacto medido, en ese momento se convertirá en la mejor inversión posible en el mundo actual.









