Google ha pubblicato una metodologia completa per misurare l’impronta ambientale dell’intelligenza artificiale, rispondendo alle crescenti preoccupazioni sui consumi energetici dei sistemi AI. Secondo l’Agenzia internazionale dell’energia, il consumo di elettricità e acqua per AI come ChatGPT è destinato a raddoppiare entro il 2030, rendendo cruciale lo sviluppo di parametri di misurazione accurati per ottimizzare l’efficienza e ridurre l’impatto ambientale.
In un paper tecnico, l’azienda ha presentato una metodo che raccoglie consumi di energia, acqua ed emissioni di CO₂, tenendo conto non solo dell’uso diretto delle macchine, ma anche di CPU, RAM, infrastrutture e raffreddamento dei data center. Il metodo supera i calcoli tradizionali che includono solo il consumo attivo delle macchine. Secondo le stime, un prompt medio di Gemini consuma 0,24 Wh, emette 0,03 grammi di CO₂ equivalente e richiede 0,26 ml d’acqua – un impatto paragonabile a guardare la TV per meno di nove secondi.
Il documento sottolinea che l’efficienza di Gemini è frutto di diverse innovazioni: un’architettura più avanzata che attiva solo le parti del modello necessarie, ottimizzazioni algoritmiche come la quantizzazione che mantiene la qualità riducendo i calcoli, processori specializzati per AI (TPU Ironwood) molto più efficienti dei chip tradizionali e data center alimentati da energia rinnovabile. Questi miglioramenti hanno ridotto di 33 volte l’energia e di 44 volte l’impronta carbonica del prompt mediano nell’ultimo anno.
Leggi l’articolo completo: Gemini, quanta energia consuma il sistema di AI? Google ha deciso di fare i conti su Wired Italia
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (09/11/2024).

