Per spiegare il pensiero di F5 in merito a quello che viene definito il rinascimento delle infrastrutture, una premessa è d’obbligo: oggi la nostra dipendenza dalle applicazioni per azionare le luci in casa, bloccare le porte e far funzionare la nostra auto ci porta a dover concepire e calcolare a potenza sia sotto forma di consumo elettrico che di cicli della CPU.
Potremmo scherzare sul fatto che il nostro browser oggi è un po’ lento e ammettere timidamente che forse potrebbe trattarsi del fatto che abbiamo trenta o più schermate aperte, ma la verità è che la potenza di calcolo comunque non è illimitata.
In qualsiasi ambiente che presenta vincoli, come l’edge, la potenza di calcolo su cui eseguire l’automazione, l’elaborazione dei dati e le comunicazioni sulle quali facciamo affidamento praticamente ogni giorno per lavoro, per gestire la nostra vita e per svago è ancora più limitata.
Anche se ci siamo spinti fino ai confini ingegneristici di ciò che è possibile, i limiti della legge di Moore continuano a ricordarci che il numero di transistor per centimetro quadrato che si possono realizzare non è infinito. I componenti che possiamo racchiudere in un telefono cellulare sono limitati e la potenza di calcolo che ci possiamo aspettare in una cell tower è pari al numero di server installati che, per lo stesso motivo, rappresenta un numero limitato e relativamente piccolo.
Rinascimento delle infrastrutture: l’evoluzione del computing ottimizzato per l’hardware
Pertanto, l’edge, composto da un numero definito di dispositivi, endpoint e nodi di calcolo, deve essere architettato in maniera tale da poter utilizzare la massima potenza di calcolo disponibile senza un aumento corrispondente di dimensioni e spazio occupato.
Questa esigenza è alla base di quello che in F5 amiamo definire il rinascimento delle infrastrutture, un movimento che sta passando inosservato per la maggior parte delle persone e che si concentra sullo sfruttamento della potenza di calcolo specializzata (ottimizzata) per aumentare efficacemente la capacità complessiva di questi ambienti soggetti a vincoli.
Il percorso evolutivo dell’elaborazione ottimizzata per l’hardware è iniziato molto tempo fa, con la nascita delle “schede” di accelerazione specializzate mirate alla crittografia, arrivando a produrre unità di elaborazione grafica (GPU) e, più recentemente, unità di elaborazione dati (DPU).
L’evoluzione tecnologica ha portato a far si che attività di elaborazione specifiche fossero “hardcoded” in specifici microprocessori, così da aumentare esponenzialmente la capacità di elaborazione ed eseguire queste attività in modo più rapido ed efficiente.
Su questo principio si basano le schede di accelerazione crittografica della metà degli anni 2000, che alla fine hanno incoraggiato l’adozione di SSL Everywhere, migliorando notevolmente le prestazioni dell’elaborazione di crittografia e decrittografia. Progressi simili sono stati fatti per migliorare la velocità dello storage. Nasce così il TCP offline engine (TOE), ad esempio, un dispositivo di rete che implementa i protocolli TCP/IP su una scheda hardware. L’interfaccia TOE supporta anche il Data ONTAP. La scheda PCIe TOE 10-GbE supporta NFS, CIFS e iSCSI TCP in Data ONTAP.
In sintesi, ogni volta che abbiamo avuto bisogno di migliorare la capacità in ambienti che presentavano vincoli, sia dal punto di vista economico che fisico, abbiamo assistito all’introduzione di nuove componenti hardware ottimizzate per quegli ambienti.
Le DPU, che attualmente rappresentano la più recente innovazione in questo settore, grazie a NVIDIA e il crescente interesse per le applicazioni legate all’intelligenza artificiale e al machine learning, sono la manifestazione più evidente dei nostri sforzi per superare ancora una volta i vincoli fisici della potenza di calcolo.
Il ruolo della DPU all’edge
Ambienti come l’edge hanno un forte bisogno di incrementare la potenza di calcolo attraverso l’elaborazione ottimizzata per l’hardware.
Che si tratti del settore manifatturiero, dove l’Internet of Things industriale (IIoT) richiede l’elaborazione in tempo reale dei dati con una latenza estremamente bassa (meno di 20 ms), o nel settore sanitario, dove la velocità di elaborazione dei dati sulla salute del paziente può fare la differenza tra la vita e la morte, la capacità di calcolo ottimizzata per l’hardware rappresenta un requisito indispensabile.
Ciò significa che qualsiasi piattaforma incentrata sulle applicazioni che si pone l’obiettivo di aiutare le organizzazioni a trarre il massimo vantaggio dall’edge deve per forza includere al proprio interno la capacità di utilizzare hardware ottimizzato per specifiche funzionalità.
La DPU rappresenta una democratizzazione della potenza di calcolo ottimizzata. Un aspetto fondamentale che combinato con il giusto stack di software e abilitato dalla giusta piattaforma, consentirà all’edge di essere in grado di offrire all’azienda la stessa ottimizzazione e i vantaggi di cui godono attualmente i grandi provider hyperscale. Ecco perché continuiamo a lavorare con partner come NVIDIA.
Oggi il software sta inglobando tutto, persino l’edge, ma alla fine sarà ancora l’hardware ad alimentare tutto, e la sua potenza può essere ancora aumentata, anche senza richiedere più spazio, tutto questo sfruttando l’ottimizzazione dell’hardware.