Hay que entender que esta cifra no es un número fijo como el precio de un refresco. Depende de factores como el modelo que uses, dónde esté el servidor que lo atiende y hasta la hora del día. Se estima que cada interacción puede consumir entre 10 y 25 mililitros de agua. Es decir, por cada 20 a 50 preguntas, se podría usar alrededor de medio litro de agua potable.
Pero estas cifras son polémicas y han ido cambiando. Un estudio de 2023 mencionaba que entre 10 y 50 consultas en GPT-3 gastaban unos 500 ml. Sin embargo, los mismos investigadores revisaron sus cálculos. Descubrieron que el consumo real de energía de GPT-3 era al menos cuatro veces mayor de lo que habían estimado. Esto llevó la cifra a aproximadamente 2 litros de agua por cada conjunto de entre 10 y 50 preguntas.
La complejidad de la petición también altera el gasto. Generar un correo electrónico de 100 palabras con GPT-4 puede consumir unos 519 mililitros de agua. Para ponerlo en perspectiva, es más de una botella de agua pequeña por un simple email.
De dónde viene realmente toda esa agua
Índice del Contenido
Este agua no se usa para «pensar», sino para evitar que los servidores se derritan. Los centros de datos son naves gigantes llenas de computadoras que siempre están encendidas. Procesar billones de cálculos para la IA genera un calor extremo.
Para refrigerarlos, la mayoría usa sistemas que dependen del enfriamiento por evaporación. Imagina una torre donde el agua circula y se evapora para llevar el calor al exterior. El problema es que el agua evaporada no se recupera. Se pierde en la atmósfera. Además, para proteger el hardware sensible, esta agua casi siempre debe ser potable. No sirve el agua sucia o de lluvia sin tratar.
El impacto no termina en el centro de datos. Una parte importante del gasto hídrico es indirecto. Proviene de las centrales eléctricas que queman carbón o gas para generar la luz que alimenta estos servidores. Producir esa electricidad también requiere evaporar enormes cantidades de agua en sus propias torres de refrigeración.
Por qué las cifras bailan tanto: ubicación, modelo y más
La localización del servidor es clave. No es lo mismo preguntarle a ChatGPT desde Texas que desde Washington. En Texas, generar ese email de 100 palabras gastó unos 235 ml de agua. La misma petición, atendida desde un centro de datos en Washington, consumió casi 1.5 litros. La diferencia es abismal y depende del clima local y de la eficiencia de la infraestructura.
La versión del modelo marca otra gran diferencia. Se esperaba que GPT-4, al ser más complejo, consumiera más que GPT-3. Pero algunos análisis argumentan lo contrario. Un blog técnico señala que los modelos más nuevos, como GPT-3.5 y GPT-4, son mucho más eficientes por parámetro que GPT-3. Sugieren que una conversación típica podría usar solo unos 5 mililitros, no 500. Incluso Sam Altman, de OpenAI, dijo en 2025 que una consulta promedio usaba 0.3 ml. La discrepancia es enorme y refleja lo rápido que evoluciona la tecnología y lo opacas que son las empresas con sus datos reales.
La fase de entrenamiento del modelo es donde se va la mayor parte del agua de una vez. Entrenar a GPT-3 consumió alrededor de 700,000 litros de agua dulce en centros de datos en Estados Unidos. Si ese entrenamiento se hubiera hecho en Asia, donde la infraestructura puede ser menos eficiente, el consumo se habría triplicado. Para modelos más grandes como GPT-4, se estima que la huella hídrica del entrenamiento podría ser diez veces mayor.
El verdadero problema: la escala se vuelve inhumana
El gasto por pregunta parece pequeño, pero multiplicado por los cientos de millones de usuarios diarios, la cifra es descomunal. Un cálculo reciente estimó que ChatGPT podría estar consumiendo alrededor de 148 millones de litros de agua al día. Es como si toda la población de Taiwán tirara de la cadena al mismo tiempo. Al año, sería agua suficiente para llenar el embalse de Central Park en Nueva York siete veces.
Este consumo compite directamente con el de las personas. En Estados Unidos, uno de cada cinco centros de datos extrae agua de zonas que ya sufren estrés hídrico. En The Dalles, Oregón, los servidores de Google consumen casi una cuarta parte de toda el agua disponible de la ciudad. En Chile, un centro de datos de Google en Santiago llegó a usar 7.6 millones de litros de agua potable al día en una región azotada por una megasequía.
Las grandes tecnológicas reportan aumentos de dos dígitos en su consumo de agua año tras año. Microsoft aumentó un 22.5%, Google y Meta un 17%. Amazon ni siquiera publica sus cifras totales, lo que algunos investigadores interpretan como una forma de evadir el escrutinio.
Las soluestas son técnicas, pero también políticas
La industria busca alternativas, aunque muchas son parches. Algunas empresas, como Digital Realty, usan agua no potable, como la de lluvia, para refrigerar. Otras promueven la refrigeración líquida de precisión, donde un fluido especial enfría los chips directamente, reduciendo o eliminando la necesidad de agua. Cambiar la ubicación de los centros a países fríos del norte de Europa también ayuda, pero ralentiza las respuestas.
Lo más efectivo sería usar energías renovables como la solar o eólica, que no requieren agua para generar electricía, a diferencia de las centrales de carbón y gas. También está la opción de entrenar los modelos por la noche o en temporadas frías, para minimizar la evaporación en las torres de refrigeración.
Al final, es un problema de transparencia y regulación. No existe una ley internacional que obligue a reportar o limitar este consumo. Mientras, el crecimiento proyectado es alarmante: se estima que para 2027, la industria de la IA podría necesitar entre 4,200 y 6,600 millones de metros cúbicos de agua. Es el consumo anual de un país como Dinamarca.
La próxima vez que le pidas a ChatGPT que te resuma un artículo o te escriba un chiste, recuerda que detrás de esas palabras hay un sorbo de un recurso cada vez más escaso. El verdadero costo no está en tu suscripción mensual, sino en ese vaso de agua que, en algún lugar del mundo, alguien más no podrá beber.