
Es verdad que los LLMs consumen mucha agua y electricidad por cada prompt
Los LLMs sí consumen mucha agua y electricidad por cada prompt

Respuesta
Es cierto que los Modelos de Lenguaje de Gran Escala (LLMs) consumen cantidades significativas de agua y electricidad por cada "prompt" o consulta. Expertos de la Universidad de California estiman que usar ChatGPT para entre diez y cincuenta consultas puede consumir alrededor de dos litros de agua, y una sola conversación con ChatGPT consume aproximadamente medio litro de agua . Esto se debe a que las empresas tecnológicas utilizan agua para refrigerar sus servidores y generar energía en sus centros de datos . Un análisis de *National Geographic* de abril de 2025 detalla que generar una respuesta de 100 palabras de un LLM implica en promedio 0.14 kWh de energía y 519 ml de agua para la refrigeración de los servidores . Además, una respuesta breve (20 palabras) consume 0.10 L de agua y 0.03 kWh, mientras que un ensayo detallado (500 palabras) requiere 2.60 L de agua y 0.70 kWh, y un artículo largo (1000 palabras) consume 5.19 L de agua y 1.40 kWh . El "razonamiento" o la extensión de las explicaciones y el código solicitados a la IA incrementan la cantidad de "tokens" procesados, lo que a su vez multiplica el consumo de recursos . Incluso acciones aparentemente triviales como añadir "por favor" o "gracias" en prompts separados incrementan los tokens procesados, lo que, según Sam Altman, CEO de OpenAI, puede costar "decenas de millones de dólares al año" en cómputo y, por ende, en agua y energía . La inferencia, que es la generación de resultados por parte de los LLMs, consume menos recursos que el entrenamiento, pero está creciendo rápidamente con el uso, lo que se traduce en millones de dólares anuales y un consumo de energía significativo medido en gigavatios . La escala global del uso de la IA significa que, aunque el consumo de agua por consulta individual pueda parecer pequeño, el impacto total es considerable . Por ejemplo, si solo el 10% de los trabajadores estadounidenses usara ChatGPT semanalmente, el gasto anual de electricidad equivaldría al consumo energético de todos los hogares de Washington, D.C. durante 20 días, y el consumo de agua ascendería a más de 435 millones de litros anualmente . Los centros de datos requieren grandes cantidades de energía y agua para funcionar y refrigerar sus servidores, ya que estos se sobrecalientan . La mayor parte del consumo de agua en los centros de datos se atribuye a los sistemas de refrigeración, ya que los servidores están diseñados para operar entre 20°C y 22°C, y si la temperatura aumenta, también lo hace la probabilidad de fallo en los equipos .
Sin embargo, existen esfuerzos y tecnologías para mitigar este consumo. La inferencia de un LLM consume menos recursos que su entrenamiento, que requiere enormes recursos computacionales, equivalentes a alimentar miles de hogares durante un año o las emisiones anuales de 40 coches para un modelo importante . El entrenamiento de modelos de lenguaje, como el GPT-3, necesitó 78,437 kWh, lo que equivale al consumo de energía de un hogar medio en España durante 23 años . En contraste, una sola consulta corta de GPT-4o consume 0.43 Wh . La industria de los centros de datos está comprometida con la eficiencia energética y el uso responsable de los recursos . Se estima que los centros de datos representan entre el 0.2% y el 0.5% del consumo total de agua a nivel mundial, una cifra relativamente pequeña en comparación con la agricultura (70%) o la industria (20%) . Tecnologías como los sistemas de circuito cerrado de agua, que reciclan y reutilizan el agua, están siendo implementadas para reducir significativamente el consumo . Microsoft ha anunciado un nuevo diseño de centros de datos que "optimiza las cargas de trabajo de IA y no consume agua para la refrigeración" al utilizar un sistema de circuito cerrado, lo que podría evitar la necesidad de más de 125 millones de litros de agua al año por centro de datos . La compañía ya ha mejorado su eficiencia de 0.49 L/kWh en 2021 a 0.30 L/kWh en el último año fiscal . Sin embargo, incluso en sistemas cerrados, Mahawira Dillon advierte sobre posibles problemas como fugas o desperdicios, y el potencial aumento de energía para la circulación y procesamiento del agua . También se están explorando soluciones como sumergir los servidores en líquidos o instalarlos en el fondo del océano para refrigeración . La cuantificación es una técnica clave para reducir el consumo de memoria y acelerar la inferencia, disminuyendo la precisión numérica de los pesos y activaciones de un modelo, lo que permite que modelos como GPT-4, LLaMA 2 o DeepSeek-V3 sean más eficientes sin comprometer significativamente su rendimiento . Modelos cuantificados requieren menos energía, lo que reduce los costos operativos y mejora la sostenibilidad . Además, la computación neuromórfica, que busca emular el cerebro humano, es una tecnología emergente que podría reducir drásticamente el consumo energético de las soluciones de IA, hasta 1000 veces según IBM . Empresas como IBM están desarrollando chips como NorthPole que prometen mejoras significativas en eficiencia energética . La IA también puede ser utilizada para optimizar el uso de energía en edificios, redes eléctricas y sistemas de transporte . Las grandes tecnológicas están invirtiendo en I+D para optimizar el consumo de energía . Una solución para el ahorro de energía es la economía de consultas mediante la tecnología RAG (Retrieval-Augmented Generation), que permite a los modelos buscar información específica en bases de datos más pequeñas, agilizando el proceso y reduciendo el gasto energético . En España, los centros de datos son alimentados al 100% por energías renovables .
En conclusión, la afirmación de que los LLMs consumen mucha agua y electricidad por cada prompt es verdadera. Si bien el consumo individual por prompt puede parecer pequeño, la escala global de su uso genera un impacto ambiental considerable en términos de electricidad y agua, principalmente para la refrigeración de los centros de datos. La inferencia, aunque menos intensiva que el entrenamiento, contribuye significativamente a este consumo a medida que su uso se masifica. Sin embargo, es importante destacar que la industria está invirtiendo en investigación y desarrollo de tecnologías y prácticas más sostenibles, como la cuantificación, la computación neuromórfica, los sistemas de circuito cerrado para la refrigeración y la optimización de algoritmos y consultas. Estas innovaciones buscan mitigar el impacto ambiental y mejorar la eficiencia, lo que sugiere que el consumo de recursos podría reducirse en el futuro.
1
1
2
2
2
2
3
4
2
5
6
3
6
7
6
4
1
4
8
1
8
8
1
8
9
9
10
10
10
6
6
6