"Por favor" y "Gracias" en ChatGPT cuestan decenas de millones en electricidad. El precio de la cortesía digital

Es importante no demonizar toda la IA. Muchos modelos utilizados para combatir el cambio climático, como los de predicción meteorológica, monitoreo de biodiversidad o diseño de baterías más eficientes, son modelos pequeños y eficientes.

25 de septiembre de 2025 a las 08:10h
generar es 30 veces mas costoso que recuperar por  2025 09 23 14 51 14
generar es 30 veces mas costoso que recuperar por 2025 09 23 14 51 14

El auge de la inteligencia artificial generativa ha transformado la forma en que interactuamos con la tecnología, pero detrás de cada respuesta instantánea, cada texto generado o imagen creada, hay un costo oculto que apenas empezamos a comprender. Desde que ChatGPT irrumpió en escena a finales de 2022, la carrera por desarrollar modelos más grandes y rápidos ha desatado una ola de inversiones multimillonarias, pero también ha reavivado preocupaciones profundas sobre su impacto ambiental. La energía no es infinita, y el agua tampoco, y ambos recursos están siendo intensamente demandados por los centros de datos que alimentan estos sistemas.

Una sola consulta a un modelo de lenguaje generativo consume en promedio unos 3 watt-hora de electricidad. Puede parecer poco, pero multiplicado por miles de millones de interacciones diarias, el consumo se dispara. Para ponerlo en perspectiva, un refrigerador doméstico consume entre 1 y 2 kilowatt-hora al día, lo que equivale a unas 500 consultas a una IA. Este detalle revela cómo el uso cotidiano de herramientas aparentemente ligeras puede tener efectos acumulativos significativos.

La comodidad digital tiene un precio que no siempre vemos, pero que el planeta sí lo sufre.

Sam Altman, CEO de OpenAI, reveló que gestos tan simples como decir "por favor" o "gracias" durante las interacciones con ChatGPT implican un costo energético enorme, del orden de decenas de millones de dólares en electricidad. Esta afirmación, aunque suene exagerada, pone de manifiesto una realidad incómoda cada interacción, por mínima que sea, requiere procesamiento computacional intensivo. Y ese procesamiento no ocurre en el vacío, sino en enormes centros de datos que necesitan no solo energía, sino también grandes cantidades de agua para enfriarse.

La Dra. Sasha Luccioni, especialista en IA y clima en Hugging Face, ha sido una de las voces más claras en alertar sobre este impacto. Explica que los modelos de lenguaje grande consumen aproximadamente 30 veces más energía que una página web convencional, porque generan respuestas desde cero, basándose en todo lo aprendido durante su entrenamiento. Generar es más costoso que recuperar, y ese es el meollo del problema. Mientras más dependamos de la generación constante de contenido, mayor será la carga sobre los sistemas energéticos y naturales.

Las grandes empresas tecnológicas no están deteniéndose. Meta, por ejemplo, planea invertir cientos de miles de millones de dólares en IA. Su CEO, Mark Zuckerberg, anunció la construcción de Prometheus, un centro de datos casi del tamaño de Manhattan, y Hyperion, con capacidad para escalar hasta 5 gigavatios. Para hacerse una idea, 5 gigavatios equivale al consumo energético de cerca de 4 millones de hogares. Esta escalada en infraestructura no solo marca una apuesta industrial, sino también una huella ambiental de proporciones colosales.

Google ya ha empezado a actuar. En agosto, acordó reducir temporalmente el consumo eléctrico de sus centros de datos de IA cuando la demanda en la red eléctrica alcance niveles críticos. Es un gesto de responsabilidad, pero también una señal de que la red eléctrica global empieza a sentir el peso de la explosión de la IA. Otros, como Mistral AI, han optado por una estrategia diferente. Audrey Herblin-Stoop, vicepresidenta de asuntos públicos de la empresa, destacó que han realizado un estudio pionero para cuantificar el impacto ambiental de sus modelos. Y una de sus decisiones clave ha sido ofrecer modelos de diferentes tamaños, incluyendo Ministral 3B, una versión ligera pensada para minimizar el consumo energético.

Luccioni insiste en una pregunta fundamental que rara vez nos hacemos ¿realmente necesitamos usar IA para todo? Antes buscábamos recetas en libros o en internet. Hoy las generamos desde cero. Antes usábamos calculadoras, ahora preguntamos a chatbots. La tecnología no debe reemplazar lo que ya funciona, sino complementarlo. El uso indiscriminado de IA como enciclopedia, terapeuta o asistente de cocina multiplica innecesariamente su impacto. Hay alternativas más eficientes, y debemos recuperar el juicio sobre cuándo y cómo usar estas herramientas.

Es importante no demonizar toda la IA. Muchos modelos utilizados para combatir el cambio climático, como los de predicción meteorológica, monitoreo de biodiversidad o diseño de baterías más eficientes, son modelos pequeños y eficientes. Pueden funcionar incluso en una laptop. No toda inteligencia artificial es igual en su huella ecológica. El problema no es la tecnología en sí, sino el modelo de consumo masivo que rodea a la IA generativa, impulsado por una demanda que crece sin freno.

La paradoja de Jevons

Existe un fenómeno conocido como la paradoja de Jevons, que señala que cuando una tecnología se vuelve más eficiente, no reducimos su uso, sino que lo aumentamos, anulando las ganancias de eficiencia. Esto es exactamente lo que está ocurriendo con la IA. Aunque las nuevas generaciones de hardware, como los chips de Nvidia, son más eficientes, el volumen de uso crece aún más rápido. La eficiencia no salva si la demanda crece sin límites.

La clave está en repensar nuestro modelo de uso. No se trata de abandonar la IA, sino de usarla con conciencia. Debemos preguntarnos si cada consulta, cada generación de texto o imagen, es realmente necesaria. Y las empresas, por su parte, deben asumir su responsabilidad invertir en eficiencia, transparencia y modelos escalables que no sacrifiquen el planeta en nombre de la innovación. El alma de la tecnología no está en su capacidad de producir, sino en su capacidad de servir con sentido.

Sobre el autor
Redacción
Ver biografía