Autore: Andrea Faeti (Vertiv Italia) - Tempo di lettura 7 minuti.

Entrare in un data center vent’anni fa significava vedere una serie di server, spesso eterogenei, organizzati in rack che rappresentavano il livello di capacità computazionale disponibile. All’epoca le problematiche principali erano legate alla distribuzione affidabile dell’energia, e alla gestione del calore, per assicurare il raffreddamento di tutti gli apparati installati. Con densità di potenza dell’ordine dei pochi kW per rack, dal punto di vista infrastrutturale il focus principale era garantire la continuità delle operazioni aziendali e la fault tolerancy del sistema.
Oggi invece i data center sono realtà radicalmente differenti e specializzate. Negli anni sono arrivati in Europa e anche in Italia gli operatori specializzati in colocation e nell’offerta di servizi cloud, con infrastrutture progettate appositamente per ospitare specifiche tecnologie e server dedicati alle più diverse attività di calcolo: mobilità, integrazione, supply chain informatizzate.
In questi casi il fornitore è integrato direttamente nei sistemi del cliente: non si tratta più di prevedere infrastrutture da collegare via internet, ma di un ecosistema complesso che richiede sicurezza, continuità e capacità computazionale.
Per chi lavora sulle infrastrutture, questa evoluzione significa progettare soluzioni ottimizzate per le differenti esigenze e scalate sulle necessità degli operatori. L’accento si è inoltre spostato in modo determinante sulla gestione e ottimizzazione dell’energia. Energia che deve essere fornita ad apparati sempre più potenti. E che, fino a quando useremo il silicio nei microprocessori, si trasformerà inevitabilmente anche in calore. L’energia in ingresso diventa lavoro informatico utile e calore di scarto, che deve essere rimosso e portato all’esterno attraverso diverse tecnologie.
La necessità di realizzare sistemi di elaborazione potenti e compatti ha portato i valori di potenza elettrica per un rack a 100-150 kW. Non è un’evoluzione, ma un cambio di paradigma.
La fisica pone dei limiti per cui questi livelli non sono sostenibili con il raffreddamento tradizionale ad aria: per questo si sta affermando il raffreddamento a liquido. Esattamente come è successo nel mondo dei motori, si è passati dall’aria al liquido. Oggi i server hanno sistemi di raffreddamento diretto: il calore viene prelevato dalla superficie dei chip (CPU, GPU, Memorie) e trasferito all’esterno tramite un liquido refrigerante. Questo calore, una volta trasferito all’esterno per mezzo del liquido, potrà essere smaltito, come farebbe il radiatore di una automobile, o riutilizzato.
Spesso il liquid cooling non è più un’opzione, ma una necessità. Vertiv ha investito nello sviluppo di un’ampia gamma di CDU (Coolant Distribution Units) con un portfolio che si articola in tre categorie: liquid-to-liquid (come le soluzioni Liebert XDU, progettate per sistemi ad alta densità AI e HPC), liquid-to-air (che integrano raffreddamento a liquido e scambio termico con l'aria) e liquid-to-refrigerant, detto anche “phase-cool”, la soluzione più flessibile per una transizione graduale verso architetture AI ad alta intensità energetica.
Queste soluzioni consentono di affrontare passo dopo passo il percorso di trasformazione del data center verso modelli ottimizzati per l’intelligenza artificiale. Ma c’è anche un altro aspetto meno evidente: per trasferire una potenza elettrica elevata all’interno di un rack con sistemi a bassa tensione servono correnti elevatissime. I cavi tradizionali sono sostituiti da busbar in rame o alluminio. In prospettiva, l’esigenza di limitare le potenze elettriche e le inevitabili perdite legate ai conduttori e alle conversioni di energia, spingerà verso l’aumento delle tensioni di alimentazione e l’utilizzo di sistemi in corrente continua.
Questo cambia completamente il modo di progettare un data center: distribuzione elettrica, power chain, trasformatori, media e bassa tensione diventano elementi strategici. Con 8 kW per rack si possono adottare le soluzioni tradizionali, con 130 kW per rack no. Nell’evoluzione dei data center verso il concetto di AI Factory, i data center non ospitano più una molteplicità di server e di applicazioni al loro interno, ma un’unica unità computazionale con potenze di decine o centinaia di MW.
Una critica frequente ai data center riguarda l’utilizzo di enormi quantità d’acqua. È importante chiarire che, nella maggioranza dei casi, non è vero. L’energia che entra nei server produce calore di scarto, e negli anni si è lavorato per rendere sempre più efficiente la rimozione di questo calore. Esistono varie tecnologie: espansione diretta con gas refrigeranti, che richiedono compressori e quindi energia, oppure sistemi ad acqua refrigerata. Quando si parla di acqua, spesso si pensa a uno spreco. Ma in realtà si tratta principalmente di circuiti chiusi, dove l’acqua non viene consumata ma è il mezzo per trasferire il calore all’esterno dell’impianto. Un altro tema fondamentale è il riutilizzo del calore. Nei siti tradizionali l’acqua portata all’esterno del data center ha temperature che raggiungono, al massimo, l’ordine dei 30 °C. A queste temperature non è immediato sfruttare questo calore senza sistemi complessi e costosi. Con il raffreddamento a liquido, invece, l’acqua può essere resa disponibile ad oltre 50 °C, sempre in circuito chiuso. Questo cambia tutto: quell’energia può essere usata, ad esempio, per il teleriscaldamento in maniera diretta. Nei Paesi nordici questo approccio è già diffuso. Anche in Italia si iniziano a realizzare impianti di questo tipo, dove il data center diventa un nodo dell’ecosistema energetico: utilizza energia, ma ne restituisce sotto forma di calore utile.
Il tema della sostenibilità che, nel tempo, aveva già assunto una rilevanza primaria nelle strategie degli operatori, diventa, in un contesto di aumentati consumi energetici, ancora più rilevante e strategico. Vertiv risponde alle principali richieste del mercato lavorando a stretto contatto con i clienti, per progettare data center e architetture di sistema in grado di supportare i loro obiettivi di sostenibilità. Per rispondere alle nuove esigenze, Vertiv ha sviluppato l’innovativa soluzione Vertiv OneCore, concepita per ridurre i tempi e la complessità della realizzazione di nuovi impianti, aumentando modularità e flessibilità. Le soluzioni modulari non sono una novità, ma ciò che oggi diventa cruciale è il time-to-market. OneCore nasce dalla collaborazione di Vertiv con i principali colocator, hyperscaler e cloud provider al fine di progettare moduli scalabili che rispondano alle esigenze evolutive del mercato e della nuova generazione di workload AI.
In merito al futuro, i modelli LLM rappresentano il principale motore della crescita della capacità dei data center. L’allenamento di questi modelli richiede enormi quantità di potenza computazionale, e nel breve termine si prevede che saranno loro a determinare principalmente il design delle infrastrutture, influenzando anche la topologia della rete. Molti dei nuovi data center potranno essere concepiti come edifici standard o come moduli prefabbricati, proprio per accelerare il time-to-market.
A medio termine, tuttavia, il focus si sposterà dal training dei modelli all’inferenza, fase che richiede minore potenza ma maggiore prossimità all’utente finale. Questo riporterà in primo piano il concetto di Edge Data Center, destinati a supportare smart city, applicazioni urbane, veicoli autonomi e servizi basati su AI distribuita. L'Edge sarà fondamentale per collocare l’elaborazione vicino ai territori di utilizzo, migliorando la qualità del servizio e riducendo la latenza.
In conclusione, il settore dei data center sta attraversando una trasformazione radicale guidata dall’intelligenza artificiale, con una crescita senza precedenti della capacità richiesta, un aumento significativo del consumo energetico, e un’accelerazione del passaggio verso soluzioni modulari, scalabili e altamente efficienti. Vertiv si posiziona in questo contesto come uno degli attori chiave, offrendo tecnologie progettate per affrontare le sfide presenti e guidare la transizione verso una nuova generazione di infrastrutture AI-ready.