En mi entrega pasada quise contarte más cosas sobre el gasto energético e hídrico por el uso de la Inteligencia Artificial. Si bien es necesario contar con toda la infraestructura necesaria para llevar energía y los sistemas de enfriamiento a los centros de datos, también es importante usar de manera correcta todas las IA.
Porque ahora resulta que hasta preguntar mal contamina. En estos tiempos de calorón, aguaceros y apagones, usar mal la inteligencia artificial no solo te da respuestas chafas, también le mete presión al planeta.
Aunque parezca un chiste, cada vez que alguien lanza una pregunta innecesaria, confusa o ambigua a ChatGPT, hay un pequeño gasto de energía. Si le pides que te haga una tarea de cinco párrafos con chistes puedes estar dándole en la torre al medio ambiente, poquito, pero constante.
Según el Instituto de la Ingeniería de España, ya en 2023 se sabía que una consulta en ChatGPT consumía tres veces más energía que una en Google. Y para entrenar el modelo GPT-3, OpenAI gastó casi 78 mil kilowatts-hora. Eso equivale a tener una casa prendida 23 años. Casi estoy oyendo a mi papá en los años 80 cuando nos traía cortos por el mal uso de la luz y de focos (incandescentes) encendidos por horas.
Y si a ti (como a mí en los 80) el desperdicio de la electricidad no te molesta, tal vez pienses distinto con el agua. En septiembre de 2023, académicos de las universidades de Riverside y Arlington calcularon que entrenar ese mismo modelo consumió alrededor de 700 mil litros de agua limpia, lo que en España alcanzaría para 14 años de vida hídrica de una persona promedio. Todo por enseñarle al Tío GPT que responda a los chismes de la farándula.
Claro, algunos números ya están más actualizados. En 2024 se estimó que una consulta generaba 2.9 vatios-hora, lo que al año significaba unos 29.7 millones de dólares en electricidad. Pero no te espantes tanto porque para febrero de 2025 ya se corregía el dato a 0.3 vatios-hora por consulta. Mucho menos gracias a nuevos modelos más eficientes como GPT-4o. Eso equivale a menos de lo que gasta una bombilla LED en unos minutos. Pero aquí viene la pregunta difícil ¿de verdad estamos pidiendo cosas útiles a la IA?
El CEO de OpenAI, Sam Altman, dice que una consulta promedio gasta 0.34 vatios-hora. Pero nadie sabe cómo hizo para sacar esa cuenta, ni qué es exactamente una “consulta promedio”. ¿Contó las imágenes? ¿Las sesiones de entrenamiento? ¿La refrigeración de los servidores?
Para colmo, Sasha Luccioni, de Hugging Face citado por la revista Wired, reveló que hasta mayo de 2025, 84% de los modelos de lenguaje usados no tenían ninguna información ambiental. O sea, que la mayoría de los usuarios escoge IA sin saber qué tanto calientan el planeta. Es como invitar tragos a varios amigos de la fuente de tecnología.
Y aquí es donde todo recae en ti, usuario feliz. Resulta que el prompt, es decir, la instrucción que le das a la IA, también tiene su grado de culpa. Si escribes cosas vagas, la máquina se esfuerza más, brinca de servidor en servidor, y tú terminas calentando la Tierra por no saber escribir lo que quieres.
Así que, si vas a usar ChatGPT o cualquier otra IA, hazlo con responsabilidad ecológica. Piensa antes de preguntar. Redacta con claridad. Dale contexto. No pongas dobles sentidos. Y por favor, no le pidas que haga tu currículum para trabajar en Greenpeace si ni sabes cuánta agua consume una IA. El futuro es digital, pero el cambio climático sigue siendo bien real. ¿O no, señores aguaceros?
Google gasta y gasta
Alphabet sigue sacando la chequera en materia de IA como si no hubiera mañana. En su reporte más reciente, la casa matriz de Google presumió ingresos de 81 mil 700 millones de dólares en el segundo trimestre, superando cómodamente las expectativas. Pero lo que realmente encendió las alarmas fue el ajuste en su presupuesto pues ahora planea gastar 85 mil millones de dólares en capital este año, diez mil más que lo estimado previamente. Todo en nombre de la Inteligencia Artificial.
Sundar Pichai, CEO de Alphabet aseguró que la “demanda significativa” de productos en la nube justifica la apuesta. Ya sabes que en Silicon Valley las siglas “IA” son una llamada de acción para los inversionistas.
Y sí, la unidad de Google Cloud anda potente. 13.6 mil millones en ingresos y 2.83 mil millones de beneficio operativo. Sin embargo, Google sigue tercero en la nube, por debajo de Microsoft y Amazon. Aunque Gemini, el modelo de IA de Google, fue más de lo que se esperaba en su lanzamiento, sigue detrás de ChatGPT en adopción. En otras palabras, mucho show, poca conversión.
Y aunque el mercado reaccionó con una subida de 2.5% tras el reporte, la acción lleva meses estancada. ¿Vale la pena meterle 85 mil millones a una promesa tecnológica?