Dopo medi di riserbo, all’inizio dell’estate OpenAI e Google hanno iniziato a rendere noti alcuni dati sui consumi dei loro modelli IA ChatGPT e Gemini: rispettivamente circa 0,34 e 0,24 watt-ora per singola query. Questi numeri riguardano però le sole interazioni testuali e non offrono un quadro completo dei vari impieghi dell’IA, come la generazione di video, immagini o le applicazioni più energivore, né forniscono dettagli sui modelli, le metodologie o le variazioni per query complesse.
Inoltre, le promesse sull’efficienza energetica avanzate dalle aziende a supporto dei loro investimenti sono ancora largamente teoriche. Le aziende prevedono che l’IA potrebbe generare benefici futuri per il clima, ad esempio ottimizzando sistemi energetici o individuando materiali sostenibili, ma finora le evidenze concrete in questa direzione restano limitate. Intanto, le emissioni continuano a crescere e l’espansione dei data center rende difficile valutare l’impatto reale della tecnologia sull’ambiente.
Infine, resta incerta la domanda futura di IA, ossia quanto la tecnologia sarà effettivamente adottata da utenti e aziende. L’impatto energetico dipenderà infatti dall’effettiva diffusione della tecnologia e dalla sostenibilità degli investimenti in infrastrutture. Se l’uso crescerà ai livelli previsti dai grandi investitori, il consumo energetico potrebbe arrivare a pareggiare il fabbisogno di oltre un quinto delle famiglie statunitensi entro il 2028. Tuttavia, segnali recenti di rallentamento – come il flop del lancio di GPT-5 e ritorni limitati sugli investimenti – suggeriscono che la diffusione potrebbe essere più moderata.
Leggi l’articolo completo: Three big things we still don’t know about AI’s energy burden su MIT Technology Review
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (22/14/2025).

