Nell’articolo di Alex Troshin, Product Marketing Manager – EMEA, Enterprise & HPC Server Business Unit parla delle sfide che oggi il settore dei data center deve affrontare in ottica di efficienza energetica. L’esperto spiega l’importanza dell’equilibrio tra l’esigenza di disporre di maggiore spazio di calcolo e gli obiettivi di sostenibilità.
Buona lettura!
Data center: affrontare la sfida dell’efficienza nell’era del cloud e dell’IA
In un’epoca in cui cloud e intelligenza artificiale ormai la fanno da padrone, la domanda di larghezza di banda nei data center è cresciuta vertiginosamente, portando a una loro rapida espansione a livello globale. Tuttavia, le nuove strutture devono affrontare sfide legate alla sostenibilità, allo spazio e ai vincoli di budget. E sebbene i politici ne riconoscano i benefici in termini di produttività, crescita economica e ricerca, permangono tensioni riguardo al loro impatto sulle comunità locali e sul consumo di risorse. La soluzione ottimale risiede nell’ottimizzazione dell’infrastruttura esistente, al fine di ottenere prestazioni superiori tenendo conto delle circostanze attuali e trasformando le attuali limitazioni in un vantaggio competitivo.
L’importanza dell’ottimizzazione dei data center
I CIO e i responsabili IT si trovano di fronte alla necessità di fornire un’infrastruttura di calcolo ad alte prestazioni, in grado di supportare l’intera organizzazione e gestire casi d’uso sempre più complessi, cercando al contempo di bilanciare obiettivi di sostenibilità, vincoli di spazio e budget. Un esempio virtuoso di come alcune aziende hanno realizzato nuovi data center di grandi dimensioni con tecnologie ad alta efficienza energetica per ridurre l’impatto ambientale è il supercomputer LUMI, che utilizza energia idroelettrica priva di emissioni di carbonio e ricicla il calore di scarto per riscaldare le abitazioni della vicina città di Kajanni, in Finlandia. Tuttavia, l’efficienza energetica da sola non sarà sufficiente a soddisfare le crescenti esigenze dell’IA, che porterà ad un aumento della capacità di archiviazione dei data center. Secondo IDC, nel terzo trimestre del 2024, i sistemi di archiviazione esterna in EMEA sono cresciuti del 3,6%, mentre i server aziendali hanno registrato una crescita del 25%.
Aggiornare i vecchi server: una soluzione efficiente
Le maggiori esigenze energetiche dell’IA richiederanno progetti più efficienti per garantire la scalabilità e soddisfare gli obiettivi ambientali. Poiché la superficie dei data center, i terreni e le reti elettriche sono prossimi alla capacità massima, l’aggiornamento dei vecchi server rappresenta una soluzione ottimale. Sebbene alcuni CIO e responsabili IT cerchino di recuperare i costi mantenendo in funzione l’hardware il più a lungo possibile, esistono notevoli opportunità per aggiornare l’infrastruttura esistente, svolgendo le stesse attività in modo più efficiente. Si prevede che la capacità globale dei data center crescerà da 180 GW nel 2024 a 296 GW nel 2028, con un CAGR del 12,3%, mentre il consumo di energia elettrica aumenterà a un ritmo superiore del 23,3%, passando da 397 TWh a 915 TWh nel 2028. Per i data center più datati, questo può tradursi in una riduzione del numero di rack e sistemi da gestire, pur mantenendo la stessa larghezza di banda. Questo approccio libera spazio per future esigenze IT e di sperimentazione, indispensabile nei carichi di lavoro legati all’IA. Lo spazio disponibile può essere utilizzato per creare semi-rack di prova meno costosi prima di procedere a una realizzazione su scala più ampia, impiegando nuovi chip iper-efficienti per ridurre il consumo e i requisiti di raffreddamento e assicurare un recupero più rapido degli investimenti.
Considerazioni per un upgrade efficace
Quando si valuta l’aggiornamento di un server, è necessario considerare molteplici fattori, poiché ogni data center presenta esigenze specifiche che determinano lo stack hardware e software necessario per operare nel modo più efficiente. Non si tratta semplicemente di acquistare il chip più potente che il budget consente. L’importanza di un chip performante per l’efficienza energetica non può essere sottovalutata, come dimostrato dall’esperienza di Criteo, azienda specializzata in digital advertising. Grazie all’adozione di processori EPYC di quarta generazione, Criteo è riuscita a gestire un volume di annunci in tempo reale 16 volte superiore, dimezzando al contempo il numero di server rispetto al 2020, e rimanendo entro i limiti di potenza previsti per il data center. I responsabili IT dovrebbero cercare fornitori in grado di offrire infrastrutture end-to-end su larga scala, combinando chip ad alte prestazioni, reti, software e progettazione di sistemi. La presenza di rack fisici adeguati semplifica l’integrazione di nuovi kit in base all’evoluzione delle esigenze, mentre l’utilizzo di software open source è altrettanto cruciale per garantire l’interoperabilità tra i diversi componenti dello stack software provenienti da vendor differenti. Inoltre, i vendor che investono costantemente nella progettazione di sistemi avanzati si troveranno nella posizione ideale per accelerare le roadmap hardware e software dell’IA aziendale.
Conclusione
Con il continuo aumento della dipendenza dalle tecnologie digitali, cresce anche la necessità di potenza di elaborazione. Trovare un equilibrio tra l’esigenza di disporre di maggiore spazio di calcolo e gli obiettivi di sostenibilità è fondamentale, e la strada da percorrere consiste nell’ottimizzare l’utilizzo dello spazio esistente. Sfruttando l’architettura più adeguata, i data center possono eseguire gli stessi compiti in modo più efficiente, lasciando spazio alle tecnologie destinate a trasformare il nostro futuro.
di Alex Troshin, Product Marketing Manager – EMEA, Enterprise & HPC Server Business Unit