Un informe del Instituto Tecnológico de Massachusetts (MIT) alertó que el consumo de electricidad de la inteligencia artificial (IA) está desbocado. Y eso que acaba de nacer. Un cerebro humano solo necesita 20 vatios por hora para pensar alguna cosa. La misma función realizada por la IA se consumen 20.000 vatios, es decir la misma energía que una lámpara led durante 10 segundos. Parece poca cosa… El problema viene cuando se multiplica esa cifra por los 1.000 millones de mensajes que recibe ChatGPT cada día.
Eso es lo que ocurre cuando se habla de consultas de texto simples. Los usuarios también generan imágenes (78 millones al día solo en ChatGPT), vídeos, audios... Y ChatGPT es solo es una de las muchas plataformas disponibles. Están Gemini (de Google), Copilot (Microsoft), Claude (Anthropic), DeepSeek (los chinos), Grok (la de Elon Musk)… ¿Qué cuesta cada petición? ¿Quién va a pagar la factura? ¿Podemos permitírnoslo?
Más razona, más consume
Cada vez que una IA responde, activa un complejo proceso computacional. Para generar esa información — acierte o no — los modelos utilizan tokens, unidades que representan palabras o fragmentos de ellas y que se traducen en secuencias numéricas comprensibles por la máquina. Esa operación, junto con otras tareas internas, conlleva un consumo energético que se traduce en emisiones de CO₂. Sin embargo, muchos usuarios siguen sin conocer el coste ambiental que implica cada interacción con estas tecnologías.
Un informe publicado en MIT Technology Review acaba de poner números a algo que las grandes tecno-lógicas se niegan a revelar: cuánta energía consume la revolución de la IA. La cuenta es simple: generar una imagen de calidad estándar equivale a encender el microondas de 3 a 5 segundos. Y crear un vídeo de 5 segundos con IA consume tanta energía como recorrer 60 kilómetros en una bicicleta eléctrica…
Y los expertos advierten que son cifras aproximadas, porque las tecnológicas las consideran secreto comercial. “No sabemos cuántos parámetros tienen sus nuevos modelos, qué centros de datos usan, ni cómo canalizan las consultas… Deberíamos presionar a estas empresas para que compartan los números reales”, reflexiona la investigadora informática canadiense, Alexandra Luccioni.
Además, hay que refrigerar los servidores. Para escribir 200 palabras se necesita un litro de agua. Esos números son solo el aperitivo. Los investigadores del Laboratorio Nacional Lawrence Berkeley, financiado por el Departamento de Energía estadounidense, calcularon que para 2028 la IA de Estados Unidos consumirá entre 165 y 326 teravatios por hora; suficiente electricidad para abastecer al 22% de todos los hogares norteamericanos durante un año.
Quien paga la fiesta
¿Quién paga? Un estudio de Harvard revela que los descuentos eléctricos que reciben las tecnológicas se trasladan como sobrecostes a los consumidores normales. En Virginia calculan que a cada familia le costará 37,50 dólares extra al mes. Y en el futuro estos modelos no van a limitarse a responder preguntas sueltas o generar imágenes; se convertirán en asistentes personalizados, integrados en Alexa y Cía.
Un estudio de la Universidad de Ciencias Aplicadas de Múnich (Alemania) analizó el impacto ambiental de diferentes modelos de lenguaje generativo (LLMs, por sus siglas en inglés) en tareas comunes de uso cotidiano, como resolver preguntas de cultura general o matemáticas.
“A cada modelo se le hicieron 100 preguntas de cinco categorías diferentes, que iban desde historia hasta matemáticas a nivel de secundaria, y se les pidió responder tanto en formato de opción múltiple como en texto libre. Posteriormente, se evaluaron y compararon tanto el consumo energético como la precisión de las respuestas”, dice a SINC Maximilian Dauner, autor principal del estudio publicado en Frontiers in Communication. Según los investigadores, el impacto ambiental de interrogar modelos LLM entrenados está fuertemente determinado por su enfoque de razonamiento, con procesos explícitos que elevan considerablemente el consumo energético y las emisiones de carbono.
Adonde iremos a parar
Los investigadores evaluaron 14 modelos, con tamaños entre 7 000 y 72 000 millones de parámetros, con preguntas de referencia que cubrían una amplia gama de materias. “Las emisiones de CO₂ se calcularon en función del consumo de energía medido por un servidor equipado con una Gpu Nvidia A 100. Los modelos fueron probados en el mismo servidor utilizando preguntas idénticas para garantizar la mayor comparabilidad posible. Naturalmente, pueden producirse desviaciones según el tipo de generación eléctrica”, apunta Dauner.
La Gpu Nvidia es un procesador especializado que permite realizar millones de operaciones en paralelo, al acelerar el procesamiento de datos y reducir el tiempo que tarda el modelo en generar respuestas o entrenarse. El equipo halló que los modelos que aplican procesos de razonamiento más elaborados generan muchas más emisiones que aquellos que ofrecen respuestas concisas. En concreto, los modelos con razonamiento generaban en promedio 543,5 tokens por pregunta, frente a solo 37,7 en los modelos concisos. “El impacto ambiental de interrogar modelos LLM entrenados está fuertemente determinado por su enfoque de razonamiento, con procesos explícitos que elevan considerablemente el consumo energético y las emisiones de carbono”, señala el científico.
El modelo Cogito (70 000 millones de parámetros) obtuvo la mayor precisión (84,9 %), pero emitió tres veces más CO₂ que otros de tamaño similar con respuestas más concisas. “Actualmente, vemos una clara disyuntiva entre precisión y sostenibilidad en las tecnologías LLM. Ninguno de los modelos que mantuvo las emisiones por debajo de 500 gramos de CO₂ equivalente logró superar el 80 % de precisión”, señala Dauner.
Además del tipo de modelo, el área temática de la pregunta también influye: cuestiones que exigen razonamientos complejos —como filosofía o álgebra abstracta— provocaron hasta seis veces más emisiones que temas como historia de secundaria.