La corsa globale all’intelligenza artificiale non è più soltanto una competizione su potenza di calcolo, parametri dei modelli o benchmark. Sempre più chiaramente, il vero terreno di scontro tra i grandi player del silicio è l’energia: quanta ne serve per addestrare e far girare modelli sempre più grandi, quanta se ne riesce a risparmiare per unità di calcolo, e quanto questa efficienza incida sulla sostenibilità − economica e ambientale − dei data center.
È in questo contesto che va letta la sfida tra Google, con le nuove TPU Ironwood, e NVIDIA, che continua a spingere sull’evoluzione delle proprie GPU con la piattaforma Blackwell. Due strategie diverse, accomunate da un messaggio sempre più esplicito: senza un salto di qualità nell’efficienza energetica, la scalabilità dell’AI rischia di fermarsi contro i limiti delle reti elettriche.
Google, l’energia come vincolo di progettazione
Dal punto di vista di Google, l’energia è ormai uno dei principali colli di bottiglia per l’intelligenza artificiale. L’azienda lega esplicitamente lo sviluppo dei propri chip alla necessità di ridurre il consumo di elettricità nei data center: “In qualità di pionieri nelle infrastrutture di calcolo, Google pone una forte attenzione sull’efficienza. I nostri data center sono tra i più efficienti dal punto di vista energetico al mondo e oggi forniscono oltre sei volte più potenza di calcolo per unità di elettricità rispetto a cinque anni fa”, spiega l’azienda a Materia Rinnovabile. Questa impostazione si riflette direttamente nella progettazione dell’hardware.
Ironwood, settima generazione dei Tensor Processing Unit, nasce con un obiettivo preciso: aumentare drasticamente la capacità di calcolo disponibile a parità di energia consumata. “La settima generazione di Tensor Processing Unit di Google, Ironwood, è quasi 30 volte più efficiente dal punto di vista energetico rispetto alla nostra prima Cloud TPU del 2018”, prosegue Google.
Il miglioramento non riguarda solo la potenza di picco, ma l’efficienza lungo l’intero ciclo di vita dei carichi di lavoro AI. Sul fronte delle emissioni, l’azienda evidenzia che “uno studio pubblicato a febbraio 2025 ha rilevato un miglioramento di tre volte nell’efficienza carbonica (emissioni per FLOP) nell’arco di quattro anni, dalla TPU v4i alla TPU v6e (Trillium), il che significa tre volte più calcolo AI erogato a parità di emissioni di carbonio”.
Dal chip al data center: raffreddamento e uso quotidiano dell’AI
Secondo Google, la co-progettazione di modelli, hardware e software consente di ridurre l’impatto energetico anche nell’uso quotidiano dell’AI generativa, non solo nei grandi carichi di training. “L’impronta energetica di una richiesta testuale media a Gemini si è ridotta di 33 volte in 12 mesi ed è oggi equivalente a guardare la televisione per poco meno di nove secondi”, sottolinea l’azienda.
Un ruolo centrale è giocato anche dalle tecnologie di raffreddamento, sempre più decisive nei data center orientati all’intelligenza artificiale: “Le nostre soluzioni avanzate di raffreddamento a liquido e il design ottimizzato dei chip possono sostenere in modo affidabile fino al doppio delle prestazioni rispetto al raffreddamento ad aria standard, anche sotto carichi AI continui e intensivi”.
NVIDIA, l’efficienza come leva di continuità tecnologica
Anche NVIDIA rivendica l’efficienza energetica come uno dei pilastri della propria strategia industriale. Nel commento fornito a Materia Rinnovabile, l’azienda sottolinea come la riduzione dei consumi sia parte integrante dell’evoluzione delle GPU per data center: “L’efficienza energetica è una priorità fondamentale per NVIDIA, e investiamo in modo significativo per rendere il nostro hardware sempre più efficiente dal punto di vista energetico a ogni nuova generazione”.
Un primo salto è stato ottenuto con l’architettura Hopper, introdotta con la GPU H100: “La nostra GPU H100 Tensor Core è 2,7 volte più efficiente dal punto di vista energetico rispetto alla generazione precedente ed è 20 volte più efficiente rispetto alle CPU nell’esecuzione di carichi di lavoro complessi su modelli linguistici di grandi dimensioni”.
Blackwell e le “AI factory”
Con la piattaforma Blackwell, NVIDIA afferma di aver compiuto un ulteriore passo in avanti, soprattutto per l’inferenza su modelli di dimensioni estreme. “L’ultima generazione di GPU della serie Blackwell ha dimostrato miglioramenti senza precedenti in termini di prestazioni ed efficienza energetica rispetto alla generazione Hopper”, spiega l’azienda. Il modello GB200 NVL72 “offre prestazioni di inferenza 30 volte più rapide ed è 25 volte più efficiente dal punto di vista energetico rispetto all’H100 per modelli linguistici di dimensioni enormi come GPT-MoE, che conta 1,8 trilioni di parametri”, aggiunge NVIDIA.
Secondo la società, questi progressi sono essenziali per rendere sostenibile l’evoluzione dei cosiddetti “AI factory data center”, dove la disponibilità di energia e la capacità di dissipare calore diventano fattori critici quanto la potenza di calcolo.
Due strategie diverse, un limite comune: l’energia
Al di là delle differenze tecnologiche e industriali, Google e NVIDIA convergono su un punto chiave: la crescita dell’AI è ormai direttamente legata alla capacità di contenere i consumi energetici. Non è un caso che entrambe parlino sempre più spesso di stress sulle reti elettriche, di disponibilità di potenza e di necessità di integrare l’intelligenza artificiale con sistemi di raffreddamento avanzati e approvvigionamento da fonti a basse emissioni.
Google lega esplicitamente l’espansione dell’AI alla propria ambizione di alimentare le operazioni con energia carbon-free 24 ore su 24, mentre NVIDIA insiste sul fatto che l’aumento di efficienza delle GPU sia la condizione per continuare a scalare modelli sempre più grandi senza moltiplicare in modo lineare i consumi.
Efficienza come nuova metrica dell’intelligenza artificiale
La sfida tra Ironwood e Blackwell mostra come il futuro dell’AI non si giocherà solo nei laboratori di ricerca, ma sempre di più nelle sale elettriche dei data center, nei sistemi di raffreddamento e nella capacità di trasformare l’energia disponibile in “intelligenza” utilizzabile.
Per chi progetta infrastrutture, la domanda non è più soltanto quale chip offra più prestazioni, ma quale consenta di ottenere più valore per watt consumato, per unità di raffreddamento impiegata e per tonnellata di CO₂ emessa lungo l’intero ciclo di vita. È su questo terreno che si deciderà se la crescita dell’intelligenza artificiale potrà continuare a ritmo sostenuto o se dovrà confrontarsi, molto prima del previsto, con i limiti fisici del sistema energetico.
In copertina: foto di Ales Nesetril, Unsplash
