Nel corso degli ultimi 30 anni, i data center hanno subito diverse evoluzioni: questi cambiamenti sono stati favoriti da modifiche strutturali nei processi dei data center stessi, con una rapida trasformazione della configurazione dei componenti dedicati all’elaborazione, di rete e software.
La prima generazione di centri dati rispecchiava un’epoca in cui erano in campo molti protocolli: Internet Protocol (IP), Internetwork Packet Exchange (IPX), Systems Network Architecture (SNA) e altri. Sebbene ciascuno di essi avesse un proprio modello di routing a livello 3, erano abbastanza coerenti nel comportamento a livello 2. Il focus era su un’architettura Layer 2 standard in cui tutti i protocolli coesistevano, mentre esistevano diversi gateway Layer 3 per entrare e/o uscire dal data center fabric. Per questo motivo il chip di allora era saldamente ottimizzato per la scalabilità a Layer 2, per rispondere alle esigenze dei workload ospitati nel data center.
Successivamente, è arrivata la seconda generazione di data center fabric, con l’IP che è diventato il protocollo dominante, il che ha comportato che la tecnologia fabric dovesse essere ottimizzata solo per l’IP. A differenza dei loro predecessori del XX secolo, i fabric degli anni 2000 supportavano sia il Layer 2 sia il Layer 3 nel chip e si concentravano sulla scalabilità dei fabric per la connettività IP, fornendo sia switching che routing in un modello completamente distribuito.
L’introduzione della terza generazione di data center fabric è giunta a supportare la segmentazione delle applicazioni all’interno dei data center stessi. Con l’avvento e l’esplosione del cloud e delle virtual machine, i carichi di lavoro che apparivano come strutture monolitiche centralizzate – e limitati a un singolo server – potevano ora essere scomposti in unità più piccole e successivamente distribuiti per interagire tra loro su più sistemi attraverso il fabric.
Il passaggio ai data center distribuiti
Nonostante queste evoluzioni graduali, le vecchie generazioni di data center presentano dei problemi. In particolare, essi sono costruiti con livelli infrastrutturali separati, hardware specifico e gestione frammentata. Ciò comporta un aumento dei costi e una complessità dei modelli di implementazione e delle operazioni.
Inoltre, non supportano lo spostamento generalizzato verso lo sfruttamento dei dati distribuiti, che richiede l’elaborazione dei workload più vicino al luogo in cui i dati vengono effettivamente creati, attraverso molte postazioni periferiche. Questa tendenza non mostra segni di rallentamento: Gartner prevede infatti che “entro il 2027, il 35% dell’infrastruttura del data center sarà gestita attraverso un piano di controllo basato su cloud, a fronte di una percentuale inferiore al 10% nel 2022”[1]. È necessario un nuovo approccio strutturale, incentrato sull’edge, abilitato dal cloud e data driven. In definitiva è necessario offrire un’esperienza cloud agli operatori IT, sia che si tratti di un data center tradizionale, di un sito di co-locazione o di un nuovo edge digitale, con semplicità, velocità e sicurezza racchiuse in modelli di consumo flessibili.
E qui entra in scena la quarta generazione di data center networking: ora, per la prima volta, sia il chip sia il software consentono al data center fabric di fornire realmente i servizi infrastrutturali necessari per supportare i carichi di lavoro su ampia scala. Invece di considerare il fabric solo come soluzione di segmentazione e connettività, esso può ora evolversi per supportare tutti i servizi di infrastruttura che consentono la scalabilità dei carichi di lavoro. In questo contesto è utile analizzare i principali vantaggi dei data center di quarta generazione: sicurezza, gestione del workflow operativo e integrazione di terze parti.
Portare la sicurezza del data center ad un livello superiore
La sicurezza tecnologica è una guerra di logoramento: nell’ultimo decennio i fornitori hanno scoperto che avere strumenti diversi per ogni componente della sicurezza creava complessità e riduceva la sicurezza generale. Da qui sono nati i firewall di nuova generazione (NGFW), che integrano in un’unica piattaforma i firewall di rete, i sistemi di prevenzione delle intrusioni, l’antivirus di rete, i controlli dei gateway web, l’ispezione dei DNS e il rilevamento delle minacce informatiche. Tuttavia, il traffico rimaneva Nord-Sud (dall’utente all’applicazione). Con molte applicazioni che ora consistono in diversi servizi, questo significa che la visibilità completa del traffico diventa difficile o costosa.
Ora, con i data center di quarta generazione, questo consolidamento viene portato all’intero fabric, a partire da due delle funzioni più importanti del data center: la sicurezza est-ovest, necessaria per qualsiasi implementazione a zero trust, e la telemetria di rete completa (non solo a campione).
Entrambi sono essenziali per i carichi di lavoro frammentati: la sicurezza all’interno del data center è fondamentale per prevenire le violazioni, mentre la telemetria offre opportunità per tutte le soluzioni emergenti basate sull’apprendimento automatico, che possono automatizzare la sicurezza e le operazioni di rete in modi che in precedenza non erano possibili senza una telemetria completa del data center.
Gestione dei workflow operativi e integrazioni con terze parti
Un ulteriore vantaggio dei data center di quarta generazione è rappresentato dalle capacità di gestione del workflow operativo, abilitate grazie a un’integrazione perfetta e a un ecosistema open. La possibilità di combinare differenti prodotti di rete e di storage assicura ai reparti IT una visione completa del mondo virtuale, dell’elaborazione e dello storage, fornendo essenzialmente una visione del ciclo di vita di un workload. L’orchestrazione di un insieme discreto di switch come un unico fabric di rete semplifica le operazioni quotidiane.
Inoltre, le aziende possono fare un ulteriore passo avanti implementando switch API autogenerati per consentire l’automazione del workflow e una semplice interfaccia point-and-click che aiuta a semplificare e ridurre la complessità. Grazie all’automazione del workflow basato sugli eventi, la rete dei data center di quarta generazione è in grado di supportare il provisioning, la configurazione e l’ottimizzazione delle reti in tempo reale senza necessità di intervento, permettendo ai team IT di aver più tempo disponibile per altre attività.
I fabric di quarta generazione non solo possono integrarsi con strumenti di gestione e automazione dei workflow, ma possono anche essere stratificati con servizi di cloud ibrido e infrastructure-as-a-service (IaaS). Che siano on-premise, completamente gestiti in un modello pay-per-use, in co-location o nel data center, i servizi cloud ibridi e IaaS offrono un vantaggio concreto rispetto ai modelli tradizionali di ‘network-only’. Ciò significa che i fabric più recenti possono integrarsi con le applicazioni service now. Se le aziende richiedono un nuovo server o una nuova applicazione, tutti i processi, dalla sicurezza alla rete, possono essere automatizzati e integrati, fornendo un workflow operativo simile a quello dell’hyperscale.
Il percorso da seguire
In conclusione, i data center di quarta generazione offrono alle organizzazioni un mezzo per essere al passo con il futuro in un contesto di dati sempre più distribuiti, sostenuti da strategie di infrastruttura di rete che integrano opzioni di fornitura on-premise, co-location, cloud ed edge. Questi nuovi fabric per data center sosterranno il passaggio ai “centri di dati”, supportando i workload su ampia scala, con semplicità, velocità e sicurezza, integrati in modelli di consumo flessibili basati sulle esigenze di un’organizzazione.
A cura di Dobias van Ingen, EMEA CTO & Systems Engineers Director at HPE Aruba Networking
[1] Gartner, Previsioni per il 2023: XaaS is Transforming Data Center Infrastructure, Jason Donham, Bob Gill, Philip Dawson, Michael Warrilow, Jonathan Forest, 22 novembre 2022.