Il contributo intitolato “I service provider, l’evoluzione dell’open e il percorso verso un futuro più sostenibile” è a cura di Chris Wright, CTO e SVP Global Engineering, Red Hat.
Buona lettura.
Continuando a spingersi oltre i confini dell’innovazione, con nuove tecnologie e servizi, i service provider stanno cambiando il modo in cui pensiamo al significato stesso di “open”. Dai container al multiaccess edge computing fino alle reti 5G private e oltre, queste organizzazioni guardano all’open source per risolvere le loro sfide più importanti.
Tuttavia, il cambiamento nel modo di pensare al concetto di apertura non riguarda solo l’open source. Essere aperti, in questo nuovo contesto, significa anche essere aperti ad altri cloud.
In effetti, costruire una rete moderna significa trovarsi davanti ad un approccio aperto su diversi livelli e ordini di grandezza. Le reti stesse diventeranno i computer del futuro e costruirle non è né facile né economico. Quest’anno, in occasione del MWC di Barcellona, vorrei riflettere su alcune aree chiave in cui il settore delle telecomunicazioni si trova ad essere controcorrente e in cui invece è possibile scoprire delle opportunità.
In primo luogo, l’integrazione e l’interoperabilità
Considerando la continua espansione e le opportunità offerte dal 5G, i service provider si rivolgono naturalmente al proprio ecosistema per avere maggiore libertà di scelta. In particolare, mi riferisco al software e alle applicazioni fornite dai provider e alla libertà di spostare dati e carichi di lavoro tra i vari fornitori di cloud pubblico.
La maggior parte dei service provider si sta allontanando dall’integrazione verticale, considerata finora come l’approccio migliore. Questo perché necessita di una crescente flessibilità per spostare un numero di applicazioni e servizi sempre maggiore per soddisfare i clienti dove si trovano.
Consideriamo l’Open RAN. La disaggregazione implica che, ogni volta che smontiamo qualcosa, dobbiamo poi provvedere a rimontarlo. Il che ci porta al necessario lavoro di integrazione per garantire l’interoperabilità. Chi è responsabile di questo lavoro? Chi è il system integrator per tutti i sistemi utilizzati? Si tratta di un SI o di un service provider? Oppure è un solution provider il cui lavoro di integrazione produce un’altra soluzione integrata verticalmente?
In un contesto di Open RAN, è l’implementazione di prestazioni ottimali, di requisiti in tempo reale e di sincronizzazione end-to-end ad essere cruciale per servizi differenziati della massima qualità.
Passiamo ora ad analizzare la seconda sfida: le operation
Le operation e l’interoperabilità sono strettamente collegate. Quando questi componenti indipendenti si integrano tra loro, emerge un’altra necessità costante, ossia la garanzia di semplicità. La sfida delle operation non presenta solo ostacoli tecnici. Con i nuovi principi di progettazione basati sul cloud, spesso c’è un divario di competenze. È necessario gestire l’infrastruttura cloud, le applicazioni e renderle accessibili al service provider.
Una strategia ibrida e multi-cloud efficace dipende da un livello comune che garantisca coerenza tra i diversi ambienti e permetta ai team di sviluppo e operativi di lavorare insieme e di fornire esperienze migliori ai clienti. Ma c’è un altro aspetto da considerare. Ossia in che momento introdurre il cambiamento in un determinato ambiente.
Oggi i service provider stanno cercando di sviluppare e diffondere una mentalità e un approccio più agile. È necessario muoversi più velocemente di prima per stare al passo con le richieste del mercato.
Una delle sfide è legata al fatto che le procedure operative standard sono ancora costruite intorno a soluzioni integrate, generalmente stratificate da lunghi periodi di tempo. Una volta che un service provider ha stabilito che una soluzione o un processo funzionano, è molto difficile che cambi opzione. Ciò è assolutamente comprensibile, e tuttavia genera una tensione implicita tra le procedure operative standard e l’introduzione di concetti di business legati a cloud-native e agilità.
Il valore dell’approccio zero-touch provisioning
Ma c’è anche un ulteriore livello di tensione che riguarda l’ecosistema nel suo complesso, relativo al livello di semplicità dei processi messi in atto per incorporare cambiamenti, aggiornamenti e interoperabilità. Ad esempio, consideriamo l’approccio zero-touch provisioning (ZTP) per operazioni aperte e autonome che possono essere indirizzate al caso d’uso della RAN.
ZTP offre un elevato valore in ambito edge, in aree fisicamente e geograficamente sparse, e sta risolvendo i seguenti problemi:
- Come distribuire architetture RAN su scala;
- Come utilizzare appieno metodologie e strumenti di automazione per un’implementazione e un’operatività coerenti sin dal primo giorno;
- Come garantire prevedibilità e conformità attraverso l’uso di configurazioni dichiarative della piattaforma.
Esistono alcuni progetti open source che stanno cercando di porre rimedio alle sfide operative del settore delle telecomunicazioni, come GitOps, Argo e OpenTelemetry. Tecnologie come queste, nate da comunità open source, stanno unendo le proprie forze per contribuire ad abbattere molti degli ostacoli operativi che i service provider devono affrontare oggi.
In Red Hat affrontiamo la questione dal punto di vista della piattaforma. Ci concentriamo sull’offerta di un’esperienza operativa e di un modello coerenti, con un framework di onboarding per i fornitori che, in ultima analisi, offra scelta e flessibilità alle aziende, lavorando sia con un SI che con un service provider come SI. Anche in questo caso, il nostro obiettivo è offrire opzioni ai clienti a monte e a valle dello stack.
Infine, analizziamo l’ultima sfida: il consumo energetico
Secondo uno studio dell’IEEE, il settore delle telecomunicazioni occupa circa il 4% del consumo globale di energia, cosa che pone i service provider in cima alla lista delle aziende più energivore. Sebbene le reti 5G siano del 90% più efficienti dal punto di vista energetico rispetto al 4G – in termini di consumo di energia per unità di traffico, secondo ABI Research – è molto probabile che causino “un drastico aumento del consumo energetico” a causa dell’implementazione del MIMO e del livello di densificazione della rete.
A ciò si aggiunge un numero crescente di requisiti normativi e di obiettivi di emissioni nette zero per la maggior parte delle aziende, cosa che mette la riduzione dei consumi energetici e in cima alle priorità di tutte le organizzazioni.
L’ottimizzazione dell’energia e delle emissioni di CO2 può essere ottenuta a livello di nodo, cluster, sistema e dominio del service provider utilizzando il controllo granulare dell’hardware, funzionalità di pianificazione e scalabilità specifiche, l’orchestrazione olistica e il posizionamento intelligente dei carichi di lavoro grazie all’AI/ML.
Il nostro progetto Open Programmable Infrastructure (OPI) utilizza tecnologie open source per ottimizzare l’hardware programmabile e regolare l’uso e il consumo di energia per le applicazioni. Inoltre, c’è un progetto open source chiamato Kepler a cui Red Hat sta lavorando insieme ad altri per acquisire metriche sull’uso dell’energia.
Kepler sta per Kubernetes-based Efficient Power Level Exporter: le sue principali aree di interesse sono reportistica, riduzione e regressione, in modo da poter comprendere e contenere l’utilizzo di energia.
I service provider lo sanno: l’intelligenza artificiale non risolverà tutto
Oltre a regolare il consumo energetico, in futuro utilizzeremo l’intelligenza artificiale per ottimizzare l’efficienza della rete e delle applicazioni. Anche per le applicazioni e le implementazioni esistenti. Ma l’intelligenza artificiale non risolverà tutto. Gartner ha recentemente dichiarato che “entro il 2025, in assenza di pratiche di AI sostenibili, l’AI consumerà più energia della forza lavoro umana, annullando in modo significativo i guadagni in termini di emissioni di carbonio”.
I progressi nella sparsificazione dei modelli e nel transfer learning possono davvero aiutare.
Tutto ciò avviene mentre i consumatori si aspettano che le aziende con cui lavorano, compresi i service provider, trovino fonti di energia “più verdi”. È evidente che abbiamo alcuni ostacoli da superare per costruire il futuro più intelligente e sostenibile che tutti vogliamo realizzare.
I service provider verso un futuro più sostenibile
Stiamo cercando di affrontare questa sfida a tutti i livelli. Dal punto di vista della comunità, sono membro del consiglio di amministrazione dello IOWN Global Forum in cui siamo impegnati a creare infrastrutture di comunicazione di nuova generazione, progettate per fornire funzionalità avanzate ma con un basso consumo energetico e una larghezza di banda ultra-larga. I dati e l’intelligenza artificiale sono gli elementi centrali per abilitare un futuro di servizi intelligenti basati su reti all’avanguardia e interamente fotoniche. Dobbiamo raggiungere lo stato in cui possiamo costruire quel sistema altamente componibile – con elaborazione dei dati e un sistema di risposta in tempo reale – in cui riuniamo hardware e assembliamo funzioni per svolgere compiti on-demand, in base alle esigenze della rete.
Questo approccio può portarci a raggiungere l’obiettivo di città, uffici, case, industrie intelligenti; un mondo davvero intelligente grazie a sistemi intelligenti realmente definiti dal software. E non stiamo lavorando solo a livello di comunità. Red Hat ha recentemente annunciato la sua intenzione di azzerare le emissioni operative di gas serra entro il 2030.
Per realizzare tutto questo, dobbiamo affrontare le sfide dell’integrazione, dell’interoperabilità e delle operations, per raggiungere innanzitutto il 6G, la creazione di nuovi servizi e nuovi flussi di entrate. L’unico modo per riuscirci è una partnership che copra più settori, tecnologie open source, e standard, oltre a piattaforme e strumenti comuni. Tutti noi dobbiamo essere più aperti alle possibilità e alle partnership nell’affrontare queste sfide e raggiungere un successo collettivo.