Il mondo dell’IT che oggi conosciamo sta attraversando una fase di decentramento: il calcolo si sta avvicinando al luogo in cui i dati vengono generati. Ciò significa raccogliere ed elaborare i dati più vicino all’applicazione, noto anche come edge computing.
In questo nuovo mondo, dispositivi e servizi vengono amministrati al di fuori della tradizionale sfera gestionale: le piattaforme si estendono al di fuori del data center, i dispositivi sono dislocati su superfici immense in luoghi inaccessibili e le applicazioni eseguite su richiesta vicino ai dati.
Le aziende devono quindi affrontare tre sfide principali:
- Come assicurarsi di avere le competenze per affrontare le sfide dell’edge computing?
- Come sviluppare capacità in grado di reagire – senza intervento umano – in modo sicuro e affidabile?
- Come far crescere l’edge quando improvvisamente si ha un numero enorme di dispositivi ed endpoint da considerare?
Un linguaggio di automazione unificato
Per affrontare le sfide dell’edge computing in un ambiente fortemente automatizzato è necessario che ci sia un linguaggio unificato in grado di parlare in modo nativo al mondo esterno. La capacità di integrarsi negli ecosistemi consente di connettere l’edge al data center. Un linguaggio condiviso tra esperti di dominio e sviluppatori di applicazioni porta alla cooperazione sullo stesso codice, permettendo di mettere a fattor comune le loro competenze per favorire un’automazione semplificata di storage, networking, infrastruttura, cloud e sicurezza IT.
Red Hat Ansible Automation Platform – realizzata proprio in base a questo approccio – permette di collegare le risorse edge con le piattaforme principali in modo automatizzato su larga scala.
Automazione guidata dagli eventi per il cloud
Ma per eccellere, occorre una soluzione designata per trasformare automaticamente gli eventi in azioni. È qui che entra in gioco l’automazione basata sugli eventi che consente alle applicazioni di essere disaccoppiate e riattivate, scalando solo quando si verifica un evento.
Due tecnologie chiave che stanno abilitando e democratizzando le architetture serverless al di fuori dei cloud provider sono Knative e Cloud Events.
Knative permette a quasi tutte le applicazioni containerizzate in Kubernetes di comportarsi come serverless attraverso due moduli chiave: il serving (comportamento di auto-scaling basato sulla richiesta) e l’eventing (che fornisce un’infrastruttura per inviare e ricevere eventi in modo standard).
Cloud Events – una specifica per descrivere gli eventi in modo comune, con l’obiettivo di consentire coerenza, accessibilità e portabilità per le applicazioni native cloud – garantisce coesione tra i diversi fornitori di cloud e i sistemi on-premise. Il CNCF Serverless Working Group ha sviluppato questa soluzione collaborando con fornitori come Google, Microsoft, Red Hat e SAP, insieme agli utenti finali.
Combinare una piattaforma container con una di automazione
Ma come si associa ad Ansible Automation Platform? Dove vive Ansible in questa visione? La risposta è semplice: ovunque ci sia la necessità di integrare l’automazione in qualcosa al di fuori di Red Hat OpenShift Container Platform. Knative è capace di ascoltare gli eventi, mentre Ansible è perfetto per automatizzare. Ora i clienti Red Hat possono automatizzare e orchestrare più facilmente la loro infrastruttura IT dal calcolo alla rete, allo storage, al cloud e oltre. La creazione di semplici blocchi di costruzione facili da usare per combinare queste piattaforme apre a qualunque caso d’uso.
Come funziona?
Ogni volta che un evento corrispondente colpisce Cloud Events, è possibile far partire i container Knative e una richiesta di API programmatica inviata ad Ansible Automation Platform che automatizza le infrastrutture, i servizi o l’IT in periferia che si trovano al di fuori dell’ambiente nativo del container. Per esempio, immaginate di ricevere un evento dal vostro sistema di biglietteria che chiede di modificare una certa temperatura. Ansible Automation Platform gestisce il playbook e il modulo necessari ed esegue le azioni necessarie sui termostati in questione. Può intervenire anche utilizzando altre API cloud, servizi di terze parti o sistemi non containerizzati, come un flusso di lavoro di sicurezza e gli endpoint di rete.
Gestione end-to-end all’edge con il portafoglio Red Hat
L’edge computing è parte integrante della strategia open hybrid cloud di Red Hat. Estende l’obiettivo di fornire un’esperienza coerente per tutti, dallo sviluppatore dell’applicazione al team operativo dell’infrastruttura incaricato dell’implementazione. Red Hat Enterprise Linux è già la chiave di volta dell’intero portafoglio Red Hat hybrid cloud, ed Edge non fa eccezione. Grazie all’intelligenza di Red Hat Insights integrata nella piattaforma, Red Hat Enterprise Linux è in grado di aiutare i team operativi IT a identificare, analizzare e risolvere potenziali problemi su larga scala prima che si trasformino in problemi reali.
Con la continua crescita dell’edge computing, le aziende si troveranno a gestire anche ciò che è al di fuori della loro comfort zone. L’implementazione di soluzioni in grado di affrontare queste sfide e, al tempo stesso, di focalizzarsi sulle innovazioni può fare la differenza in un futuro automatizzato.