Schneider Electric, specialista nella trasformazione digitale della gestione dell’energia e dell’automazione, ha pubblicato il white paper 133 intitolato “Navigating Liquid Cooling Architectures for Data Centers with AI Workloads”. Il documento fornisce un approfondimento sulle tecnologie di raffreddamento a liquido (liquid cooling) e sulle loro applicazioni nei moderni data center, in particolare quelli che gestiscono carichi di lavoro AI ad alta densità.
La domanda di AI sta crescendo a un ritmo esponenziale. Questo comporta un aumento del calore generato nei data center e a lungo andare la necessità di utilizzare il liquid cooling per mantenere prestazioni, sostenibilità e affidabilità ottimali.
Il nuovo white paper di Schneider Electric nasce per aiutare gli operatori dei data center e i responsabili IT a orientarsi nel complesso tema del liquid cooling, offrendo risposte chiare a domande cruciali sulla progettazione, l’implementazione e sul funzionamento dei sistemi.
Conoscere le architetture di liquid cooling
In questo documento, gli autori Paul Lin, Robert Bunger e Victor Avelar identificano due categorie principali di raffreddamento a liquido per i server AI: il raffreddamento diretto su chip e quello a immersione. Descrivono i componenti e le funzioni di un’unità di distribuzione del liquid cooling (CDU), essenziale per la gestione di temperatura, flusso, pressione e scambio di calore all’interno del sistema di raffreddamento.
“I carichi di lavoro dell’intelligenza artificiale presentano sfide di raffreddamento uniche che il solo raffreddamento ad aria non è in grado di affrontare”, ha dichiarato Robert Bunger, Innovation Product Owner, CTO Office, Data Center Segment, Schneider Electric. “Il nostro white paper mira a “demistificare” le architetture di liquid cooling, fornendo agli operatori dei data center le conoscenze necessarie per prendere decisioni informate quando ne pianificano l’implementazione. Il nostro obiettivo è fornire ai professionisti dei data center spunti pratici per ottimizzare i loro sistemi di raffreddamento. Comprendendo i compromessi e i vantaggi di ciascuna architettura, gli operatori possono migliorare le prestazioni e l’efficienza dei loro data center”.
Il white paper descrive tre elementi chiave delle architetture di liquid cooling:
– Recupero di calore all’interno del server: utilizzo di un mezzo liquido (ad es. olio dielettrico, acqua) per assorbire il calore dai componenti IT.
– Tipo di CDU: selezione della CDU appropriata in base ai metodi di scambio termico (liquido-aria, liquido-liquido) e ai fattori di forma (montaggio su rack, montaggio a pavimento).
– Metodo di smaltimento del calore: determinazione del modo in cui trasferire efficacemente il calore all’esterno, sia attraverso i sistemi esistenti della struttura, sia attraverso soluzioni dedicate.
Scegliere la giusta architettura
Il documento descrive in dettaglio sei architetture di liquid cooling, che combinano diversi tipi di CDU e metodi di smaltimento del calore, e fornisce indicazioni sulla scelta dell’opzione migliore in base a fattori quali l’infrastruttura esistente, le dimensioni dell’implementazione, la velocità e l’efficienza energetica.
Con la crescente domanda di potenza di elaborazione dell’intelligenza artificiale e il corrispondente aumento dei carichi termici, il liquid cooling sta diventando un componente critico della progettazione dei data center. Il white paper affronta anche le tendenze del settore, come la necessità di una maggiore efficienza energetica, la conformità alle normative ambientali e la sostenibilità.
“Poiché l’intelligenza artificiale continua a stimolare la necessità di soluzioni di raffreddamento avanzate, il nostro white paper fornisce una risorsa preziosa per orientarsi in questi cambiamenti”, ha aggiunto Bunger. “Siamo impegnati ad aiutare i nostri clienti a raggiungere i loro obiettivi di alte prestazioni, migliorando al contempo la sostenibilità e l’affidabilità”.
Fornire al settore progetti di riferimento per centri dati di intelligenza artificiale
Questo white paper è particolarmente tempestivo e rilevante alla luce della recente collaborazione di Schneider Electric con NVIDIA per ottimizzare l’infrastruttura dei data center per le applicazioni di intelligenza artificiale. Frutto di questa partnership è la creazione dei primi reference design per la progettazione di data center AI disponibile per il pubblico, frutto dell’integrazione tra le tecnologie AI avanzate di NVIDIA e l’esperienza di Schneider Electric nell’infrastruttura di data center.
I reference design stabiliscono nuovi standard per l’implementazione e il funzionamento dell’intelligenza artificiale, offrendo agli operatori di data center soluzioni innovative per gestire in modo efficiente i carichi di lavoro AI ad alta densità.