1. Vandal Random
  2. Noticias
  3. Sam Altman, CEO de OpenAI, alto y claro sobre el consumo de ChatGPT: 'La IA no está dejando sin agua a la Tierra'

Sam Altman, CEO de OpenAI, alto y claro sobre el consumo de ChatGPT: 'La IA no está dejando sin agua a la Tierra'

El responsable de la herramienta de inteligencia artificial más usada responde de forma rotunda sobre el consumo de ChatGPT.
Sam Altman, CEO de OpenAI, alto y claro sobre el consumo de ChatGPT: 'La IA no está dejando sin agua a la Tierra'
·
Actualizado: 13:18 11/6/2025
agua
chatgpt
consumo
españa
sam altman

La inteligencia artificial ha irrumpido en nuestro día a día con promesas de eficiencia, productividad y progreso, pero también arrastra consigo una cara menos visible: su impacto ambiental. Más allá del consumo eléctrico —que ya ha puesto en la mira fuentes como la energía nuclear para alimentar los centros de datos del futuro—, hay otro recurso que empieza a preocupar: el agua. Y no es un tema menor.

Durante meses, han circulado afirmaciones alarmantes: que bastaban diez consultas a una IA para consumir un litro de agua. En ese clima de sospechas crecientes, Sam Altman, CEO de OpenAI, ha decidido abordar directamente el asunto desde su blog personal, ofreciendo cifras concretas sobre el coste hídrico de cada pregunta que lanzamos a ChatGPT.

Sam Altman responde a las críticas: “La inteligencia artificial no está agotando los recursos del planeta”

Según Altman, cada interacción consume apenas 0,00032 litros de agua —el equivalente, dice, a “una decimoquinta parte de una cucharadita”—. Puede parecer anecdótico, pero lo relevante aquí no es la cifra aislada, sino su multiplicación a escala planetaria. Altman también ofrece datos sobre el consumo energético de cada consulta: unos 0,34 vatios-hora, lo que viene a ser lo que gastaría un horno en un segundo o una bombilla LED durante dos minutos.

Open AI y Sam Altman

PUBLICIDAD

Pero lo más llamativo es que estas cifras fueron compartidas sin contexto ni fuente directa, lo que obligó a OpenAI a aclarar posteriormente a medios como The Verge cómo se habían calculado. La transparencia, una vez más, llega después del ruido.

¿Por qué necesita agua una inteligencia artificial? La respuesta está en los centros de datos

El debate, en realidad, va más allá de lo simbólico. ¿Por qué necesita agua una inteligencia artificial? La respuesta está en los centros de datos: esas colosales instalaciones donde se entrenan y ejecutan los modelos requieren refrigeración constante, y en muchos casos recurren a sistemas de evaporación con agua dulce. Estudios como el de la Universidad de California cifran en 700.000 litros el gasto necesario para entrenar un modelo como GPT-3. Un consumo invisible pero real.

Así, cada vez que hablamos con ChatGPT, lo hacemos a costa de una huella hídrica y energética. No es el apocalipsis, pero tampoco es gratis. Y aunque Altman minimice el impacto por consulta, la escala masiva de uso convierte estas cifras microscópicas en un problema que Silicon Valley aún no ha resuelto del todo.

Comentarios: 1

En forosComentar en nuestros foros

Más sobre Tecnología

RANDOM
Flecha subir