L’intervista al professor Benardo Rossi rivela che le preoccupazioni per una “sovracapacità” delle infrastrutture IA sono premature. L’alleggerimento degli algoritmi e il riutilizzo dell’hardware stanno contribuendo ad alleviare l’ansia legata alla potenza di calcolo, ma le questioni dell’“approvvigionamento elettrico” e del “raffreddamento” restano ostacoli concreti che rallentano la corsa dell’IA.
Di recente, il professor Benardo Rossi ha tenuto una call con lo scienziato dei dati di Scale AI ed ex senior data scientist di Meta, Sri Kanajan, per discutere in profondità le tendenze architetturali dei data center IA su scala iper.
Secondo Rossi, la distribuzione delle infrastrutture IA è ancora in una fase iniziale e le preoccupazioni per un’eccessiva capacità sono limitate. I progressi negli algoritmi stanno riducendo il consumo di potenza di calcolo per l’addestramento e le infrastrutture vengono riutilizzate in modo efficiente convertendo i carichi di lavoro di training in carichi di inferenza. I cluster di addestramento, con l’uscita di nuove generazioni di GPU, vengono rapidamente riconfigurati per l’inferenza. Tuttavia, le problematiche legate all’energia elettrica e al raffreddamento rimangono i principali colli di bottiglia nell’espansione dei data center di nuova generazione.
Innovazione algoritmica: la domanda di potenza di calcolo si sposta dall’addestramento all’inferenza
Secondo quanto riportato dal professor Benardo Rossi, recenti progressi algoritmici — come i modelli ibridi (incluso GPT 5.0), l’addestramento a precisione ottimizzata e il reinforcement learning strategico — hanno ridotto in modo significativo la quantità complessiva di calcolo necessaria per l’addestramento dei modelli di intelligenza artificiale. Questo ha spinto il settore a concentrare maggiormente l’ottimizzazione sulla fase di inferenza.
Il professor Rossi sottolinea che, attualmente, l’industria sta adottando attivamente tecniche come la distillazione e la compressione dei modelli per perfezionarli, con l’obiettivo di migliorare le prestazioni senza aumentare in modo sostanziale l’investimento iniziale in potenza di calcolo.
Infrastrutture: distribuzione dinamica, preoccupazioni per la sovracapacità ancora premature
Secondo il professor Rossi, la distribuzione delle infrastrutture IA è ancora in una fase iniziale, soprattutto considerando le aspettative di ritorno a lungo termine degli investimenti da parte dei fornitori di servizi cloud. Al momento, le preoccupazioni per una sovracapacità sono limitate.
Una strategia chiave di utilizzo dinamico consiste nel riconfigurare rapidamente i cluster di addestramento, una volta concluso il ciclo di training e con l’arrivo sul mercato di nuove generazioni di GPU, per supportare carichi di lavoro di inferenza. Questo ciclo di “dal training all’inferenza” garantisce che le risorse di calcolo possano adattarsi in modo efficiente al passaggio da un addestramento intensivo a un’inferenza più bilanciata.
In termini di modelli di implementazione, i cluster di addestramento vengono generalmente collocati in nuove strutture dedicate (“greenfield”) progettate per ottimizzare l’uso offline delle GPU; i cluster di inferenza, invece, tendono a essere ospitati nell’espansione di data center esistenti (“brownfield”), soprattutto nelle aree metropolitane, per sostenere servizi IA online in modo continuo.
Sfide energetiche: alimentazione e raffreddamento come principali colli di bottiglia
L’alimentazione elettrica e il raffreddamento restano i principali colli di bottiglia per l’espansione dei data center di nuova generazione.
A giudizio del professor Rossi, con l’aumento della densità e dei carichi computazionali che i data center devono gestire, le problematiche di approvvigionamento energetico e dissipazione termica sono diventate ostacoli diffusi alla crescita su larga scala.
Le aziende hyperscale stanno esplorando attivamente soluzioni innovative, come l’adozione di tecnologie a raffreddamento a liquido nei design di tipo I, e persino la valutazione dell’energia nucleare o di fonti alternative per garantire un’alimentazione stabile 24 ore su 24, 7 giorni su 7. Parallelamente, una solida strategia di interconnessione alla rete elettrica è fondamentale per assicurare la continuità operativa dei data center.
Meta guida l’innovazione nell’architettura dei data center
Nel campo della progettazione dei data center, il rapporto del professor Benardo Rossi evidenzia le pratiche innovative di Meta. A differenza dei tradizionali operatori hyperscale, che progettano layout a forma di “H” per supportare cloud multi-tenant, Meta ha scelto una configurazione a campus di tipo “I” specificamente orientata ai carichi di lavoro IA interni.
Secondo il rapporto, questo design ha introdotto miglioramenti in termini di consumo energetico, raffreddamento e densità dei rack — fattori fondamentali per il supporto di cluster di addestramento ad alte prestazioni.
Per quanto riguarda la strategia hardware, Meta sta bilanciando soluzioni a marchio con soluzioni “white-box”. Sul fronte della rete, sebbene le elevate capacità di Arista restino indispensabili nell’infrastruttura attuale, Meta sta collaborando con fornitori di white-box come Celestica, con l’obiettivo a lungo termine di integrare il proprio software interno con l’hardware white-box.