La inteligencia artificial ha irrumpido en nuestro día a día con promesas de eficiencia, productividad y progreso, pero también arrastra consigo una cara menos visible: su impacto ambiental. Más allá del consumo eléctrico —que ya ha puesto en la mira fuentes como la energía nuclear para alimentar los centros de datos del futuro—, hay otro recurso que empieza a preocupar: el agua. Y no es un tema menor.
Durante meses, han circulado afirmaciones alarmantes: que bastaban diez consultas a una IA para consumir un litro de agua. En ese clima de sospechas crecientes, Sam Altman, CEO de OpenAI, ha decidido abordar directamente el asunto desde su blog personal, ofreciendo cifras concretas sobre el coste hídrico de cada pregunta que lanzamos a ChatGPT.
Sam Altman responde a las críticas: “La inteligencia artificial no está agotando los recursos del planeta”
Según Altman, cada interacción consume apenas 0,00032 litros de agua —el equivalente, dice, a “una decimoquinta parte de una cucharadita”—. Puede parecer anecdótico, pero lo relevante aquí no es la cifra aislada, sino su multiplicación a escala planetaria. Altman también ofrece datos sobre el consumo energético de cada consulta: unos 0,34 vatios-hora, lo que viene a ser lo que gastaría un horno en un segundo o una bombilla LED durante dos minutos.

Pero lo más llamativo es que estas cifras fueron compartidas sin contexto ni fuente directa, lo que obligó a OpenAI a aclarar posteriormente a medios como The Verge cómo se habían calculado. La transparencia, una vez más, llega después del ruido.
El debate, en realidad, va más allá de lo simbólico. ¿Por qué necesita agua una inteligencia artificial? La respuesta está en los centros de datos: esas colosales instalaciones donde se entrenan y ejecutan los modelos requieren refrigeración constante, y en muchos casos recurren a sistemas de evaporación con agua dulce. Estudios como el de la Universidad de California cifran en 700.000 litros el gasto necesario para entrenar un modelo como GPT-3. Un consumo invisible pero real.
Así, cada vez que hablamos con ChatGPT, lo hacemos a costa de una huella hídrica y energética. No es el apocalipsis, pero tampoco es gratis. Y aunque Altman minimice el impacto por consulta, la escala masiva de uso convierte estas cifras microscópicas en un problema que Silicon Valley aún no ha resuelto del todo.