Il mondo non è più quello di qualche mese fa. Non importa dove ci troviamo, ma abbiamo tutti sperimentato un nuovo modo di vivere. La distanza sociale e la necessità di operare in sicurezza portano le aziende a riconsiderare il loro modo di lavorare. Con un numero senza precedenti di persone che si sono trovate a operare in modalità smart working, molte per la prima volta, le aziende stanno imparando ad adattarsi a una forza lavoro distribuita. Improvvisamente ci troviamo di fronte a nuove sfide, tra cui l’equilibrio tra lavoro e cura dei figli, e le preoccupazioni legate alla sicurezza delle nostre famiglie e dei nostri cari quando usciamo di casa per fare la spesa. Come possiamo mantenere la continuità aziendale? Di cosa hanno bisogno i nostri clienti in questo momento e quale il modo migliore per servirli?
In Red Hat, viviamo e respiriamo open source ogni giorno. Non è solo quello che facciamo, è quello che siamo. E, più che mai, crediamo che le tecnologie open source – e le comunità che le sostengono – siano responsabili della spinta verso nuove innovazioni, come l’edge computing, e anche del reale impatto che queste tecnologie possono avere sul nostro mondo, e di come danno forma al nostro futuro. Con orgoglio possiamo mostrare come Red Hat sia all’avanguardia quando si tratta di creare e rendere disponibile la forza delle tecnologie hybrid cloud abbinate all’impegno verso le comunità open source per aiutare i nostri clienti ad affrontare molte delle attuali sfide, e avere un impatto reale sul mondo.
L’evoluzione del datacenter
Il ruolo che i dati hanno nella nostra vita si sta rapidamente evolvendo per adattarsi a sfide sempre nuove.
Abbiamo così tanti dati a portata di mano che il concetto stesso di datacenter sta cambiando. Con la proliferazione di dispositivi che generano dati, estrarre informazioni da tutti quei flussi e utilizzarle per prendere decisioni migliori richiede una nuova architettura. Abbiamo bisogno di un approccio robusto e decentralizzato alla gestione ed elaborazione dei dati, che spinga le attività di analisi e calcolo verso i margini della rete.
Gestire il costo e la complessità di questa nuova architettura su larga scala è una sfida per qualsiasi azienda. Inoltre, non si tratta solo della quantità di dati, ma anche della qualità delle informazioni che ne derivano. Il successo di un’azienda dipende dalla qualità delle informazioni a cui ha accesso. E, per poter utilizzare con successo tutti i dati, c’è la necessità di una piattaforma comune per aggregare le informazioni dai confini all’infrastruttura centralizzata sia nel cloud pubblico che in quello privato, con facilità.
È qui che entra in gioco l’hybrid cloud
Red Hat crede nell’open hybrid cloud come il miglior modo per dare un senso a tutti questi dati, gestiti in un archivio di dati federato, riassumendo le informazioni, identificando modelli, intraprendendo azioni e portando a migliori risultati di business. Una strategia basata sull’open hybrid cloud riduce al minimo la latenza, massimizzando al contempo l’impatto. L’open hybrid cloud ci porta nel futuro.
L’importanza dell’edge computing
Con il passaggio di un numero sempre maggiore di lavoratori al lavoro a distanza, le reti vengono spinte verso nuovi limiti. Le organizzazioni si affidano ora a strumenti come le videoconferenze e lo streaming come elemento essenziale dell’attività di tutti i giorni. Per questo motivo, crescono le aspettative legate all’edge computing a supporto di esigenze sempre più distribuite. L’edge computing si svolge fisicamente vicino a dove si trovano i dati e l’utente, per beneficiare di servizi veloci e affidabili, e permettere all’azienda di beneficiare di tutta la flessibilità del cloud ibrido.
L’accelerazione portata dal 5G insieme all’edge computing sta rapidamente diventando un aspetto critico in tutto il mondo. Oltre alle sfide più immediate, l’edge computing può essere d’aiuto nella realtà virtuale e nella realtà aumentata, che storicamente hanno sofferto di problemi di latenza e di larghezza di banda. Un’esperienza coinvolgente consente connessioni più ricche al lavoro e a casa, e può assicurare l’erogazione a distanza di servizi critici come la telemedicina. Poiché l’edge computing significa ad esempio che i passaggi a più elevata intensità di dati o di potenza elaborativa di un processo di rendering possono essere scaricati nel cloud, un’architettura robusta e scalabile. Abbiamo anche potuto vederne l’utilizzo nelle auto a guida automatica, o in altre applicazioni IoT automatizzate. Ad esempio, BMW Group, uno dei vincitori del Red Hat Innovation Award di quest’anno, offre quasi 230 PB di memoria utilizzabile e la potenza di calcolo necessaria a simulare fino a 240 milioni di chilometri di dati di test. I modelli a guida autonoma faranno riferimento all’edge nei veicoli connessi, mentre la formazione sui modelli avviene in ambienti di tipo cloud.
Red Hat sta lavorando con la comunità open source, i clienti e i partner per aiutare le organizzazioni che intendono accelerare le loro strategie di edge computing. Abbiamo collaborato con aziende come NVIDIA per abilitare edge AI e 5G vRAN per i nostri clienti; abbiamo lavorato con Vodafone Idea Limited per lanciare una piattaforma di edge computing intelligente e distribuita in oltre 100 sedi in tutta l’India; e più recentemente Red Hat ha aiutato Verizon a costruire un core 5G cloud-native. L’edge computing consente di trasferire la potenza di calcolo da pochi e di metterla nelle mani di molti, e le possibilità che offre alle organizzazioni di tutto il mondo sono realmente entusiasmanti.
Intelligenza artificiale e machine learning
In Red Hat combiniamo le attività svolte con le principali comunità open source che sviluppano tecnologie AI/ML all’avanguardia, le nostre piattaforme e servizi principali, e il nostro ricco ecosistema di partner intorno alla nostra Red Hat OpenShift Container Platform basata su Kubernetes, per aiutare gli sviluppatori a costruire soluzioni a problematiche concrete.
Queste soluzioni, che prima richiedevano mesi di lavoro per l’implementazione di sistemi monolitici, ora possono essere realizzate in pochi giorni. Attività come DevSecOps supportati dall’intelligenza artificiale (AI) permettono agli sviluppatori di scegliere gli strumenti che meglio si adattano alle loro esigenze e al loro lavoro, mentre i team IT e sicurezza hanno la tranquillità di sapere che pipeline, artefatti e distribuzione sono governati e ripetibili in tutta sicurezza.
Abbiamo lavorato a stretto contatto con i membri della nostra comunità Open Data Hub, che punta alla costruzione di una piattaforma AI-as-a-Service su OpenShift e Red Hat Ceph Storage. A monte, eredita il lavoro da Kafka/Strimzi, e rappresenta anche la base del programma interno Red Hat per AI e scienza dei dati di Red Hat. Siamo orgogliosi di lavorare con partner tecnologici come Cloudera, Anaconda e SAS per aiutare a promuovere l’uso dell’Intelligenza Artificiale e di altre tecnologie emergenti in modo decisamente concreto, come il riconoscimento facciale per le applicazioni di sicurezza e il monitoraggio della sicurezza in fabbrica.
Quantum computing
Circa 10 anni fa, la convergenza tra smartphone, reti 4G e cloud computing ha posto le basi per il mondo che oggi diamo per scontato ma che allora non riuscivamo nemmeno a immaginare. Andando avanti, toccherà alla combinazione tra proliferazione dei dispositivi, reti 5G e edge computing porre le basi per una prossima fase di innovazione che potenzialmente avrà sulla nostra vita un impatto profondo, in modi oggi ancora difficili da immaginare.
Con i nostri dati che continuano a crescere in modo esponenziale, e con la definizione di sistemi sempre più complessi, come può l’elaborazione informatica tenere il passo? Una delle tecniche di calcolo emergenti più affascinanti è il calcolo quantistico. Sfruttare i misteri della meccanica quantistica per operare sui qubit crea il potenziale per risolvere una nuova scala di sfide. Ciò si rivela particolarmente potente nel modellare le complessità del mondo fisico e potrebbe dare origine a vere e proprie rivoluzioni in settori come la scienza dei materiali o la medicina.
Questo non significa che l’informatica classica sta scomparendo, piuttosto dimostra che l’informatica eterogenea, sfruttando il miglior ambiente di calcolo per i task specifici, è qui per rimanere. Dal confronto con i leader del settore del calcolo quantistico, è anche chiaro che la collaborazione tra l’open source e la comunità giocherà un ruolo importante nell’evoluzione del calcolo quantistico.
L’impegno di Red Hat verso l’open source
Quando si parla di impegno verso l’open source, Red Hat non scende a compromessi. Siamo consapevoli che comunità forti sono fondamentali per i nostri prodotti e che mantenere le comunità sane non significa solo massimizzare l’adozione, ma anche consentire la longevità di un progetto. Red Hat partecipa attivamente alle comunità upstream per sviluppare una profonda competenza e fiducia nella nostra offerta di prodotti. Questo ci permette inoltre di incorporare le esigenze dei clienti più velocemente, di risolvere rapidamente i bug e di fornire la migliore esperienza utente possibile. Uno dei modi in cui assicuriamo la sostenibilità a lungo termine dei nostri prodotti e la sostenibilità dei progetti della comunità è seguire un primo modello upstream. E le modifiche che apportiamo ai prodotti le proponiamo anche nelle rispettive comunità. Contribuiamo verso chi ci aiuta, in modo da poter progredire tutti insieme.
Fin dall’inizio, l’open source è stato tutto per noi. Quando abbiamo iniziato più di 25 anni fa, non si trattava di prodotti open core, ma di offerte veramente open source. L’open core sconfigge lo scopo dell’open source, perché non porta tutti i benefici della comunità ai nostri clienti. Red Hat ha la stessa prospettiva oggi. È questo che ci rende Red Hat.
Upstream first, operate first
Portiamo a un altro livello il nostro impegno “upstream first”, puntando sull’operatività.
Un attributo chiave del cloud è l’eccellenza operativa. L’hybrid cloud non è diverso. Un open hybrid cloud può portare il potere delle comunità open source ai modelli operativi di un cloud. Allo stato attuale, non esiste un equivalente upstream per l’operatività, e con l’introduzione di “operate first”, stiamo cercando di cambiare questa situazione. Puntando sull’operatività, le comunità, e in ultima analisi i nostri prodotti, possono costruire la conoscenza operativa direttamente nel software. Sfruttando strumenti come Ansible e il suo Operator SDK, Red Hat sta lavorando con i professionisti delle operazioni per raccogliere informazioni sulle esigenze operative come parte del ciclo di sviluppo del software. Quando operiamo per primi, condividiamo la conoscenza operativa, che può essere importante quanto il codice stesso.
Il mondo sta cambiando, ma Red Hat e le tecnologie open source sono qui per aiutare ad affrontare molte di queste nuove problematiche, quanto mai concrete, che i clienti si trovano ad affrontare oggi.