A cura di Jason Bloomberg, analista, esperto di digital transformation e presidente di Intellyx
Oggi per le aziende l’obiettivo è chiaro, anche se non ancora del tutto raggiunto: possedere un ambiente produttivo e operativo totalmente automatizzato.
L’ascesa del DevOps mostra proprio quali progressi abbiamo fatto nell’automatizzare il provisioning e la configurazione delle operazioni, così come la distribuzione delle applicazioni. Il passaggio successivo riguarda la gestione dell’ambiente operativo.
L’IT Operations Management (ITOM), e, in particolare, l’Application Performance Management (APM) sono oggi già sulla buona strada verso la realizzazione di questa visione “hands-off” ma il traguardo non è ancora stato tagliato. Negli ambienti di produzione aziendali complessi, come quelli attuali c’è e ci sarà anche in futuro bisogno dell’intervento delle persone ma, più gli ambienti e le applicazioni diventano difficili da gestire, più sarà necessario fornire ai responsabili delle operation strumenti più intelligenti e più potenti.
Gli strumenti di monitoraggio di prima generazione coglievano gli eventi e i log registrati per alimentare gli alert inviati al team delle operation. Il risultato era una tempesta di avvisi con una quantità di informazioni tale da renderle spesso inutilizzabili, perché le informazioni realmente importanti venivano perse in un flusso di dati inutili e senza fine.
La definizione più ampia che il termine “applicazione” sta assumendo nel mondo digitale di oggi aggiunge ulteriore complessità: le applicazioni monolitiche del passato sono state affiancate o sostituite dalle applicazioni digitali moderne che sono spesso eseguite sia on premise sia nel cloud e composte da molti elementi distinti: container nei quali sono eseguiti numerosi micro-servizi, plug-in di terze parti e altro ancora.
Questo contesto sempre più dilatato per l’applicazione porta a emergere una nuova categoria di mercato: il Digital Performance Management (DPM). Il DPM, come quello proposto da Dynatrace, riconosce che, al fine di soddisfare le esigenze e le aspettative degli utenti finali, ogni elemento delle applicazioni, complesse e interconnesse, deve garantire prestazioni corrette, ogni volta e a qualsiasi velocità.
Il Machine Learning viene in soccorso
Come è possibile, allora, identificare le informazioni preziose separandole dalla marea di dati inutili? Il segreto sono le tecnologie di apprendimento automatico che rendono il filtraggio dei contenuti molto più sensibile al contesto e, idealmente, consentono al sistema di continuare ad apprendere nel corso del tempo.
Ma anche queste tecnologie di monitoraggio di ultima generazione presentano delle pecche, perché anch’esse operano solo una volta che il fatto è avvenuto.
Un problema può causarne un altro e un altro ancora, e, quando l’amministratore riceve finalmente un alert, deve tornare a ritroso a cercare di capire quale sia stata la causa principale scatenante.
Per questo motivo, la prossima generazione di tecnologia di monitoraggio dovrà concentrarsi sull’analisi delle cause. Correlando tra loro in sequenza gli alert più significativi nel tempo e risalendo cronologicamente al primo è possibile, infatti, determinare se tale primo evento sia stato veramente la causa scatenante dei problemi percepiti e, inoltre, trovare la soluzione ai problemi principali.
Il semplice machine learning algoritmico, purtroppo, non è generalmente all’altezza del compito di individuare cause profonde nel mondo reale degli ambienti aziendali complessi. Ancora una volta, i vendor devono fare un passo avanti e pensare a progettare funzionalità di intelligenza artificiale (AI) più sofisticate che sfruttano metodi avanzati come il deep learning e le tecniche di analisi dei big data per cogliere i punti dati più preziosi e rivelare la vera causa degli scenari dei problemi più complessi.
Oltre il semplice Machine Learning
Con tali strumenti di Intelligenza Artificiale a disposizione delle operation, i team che ne sono responsabili sono ora in grado di attivarsi più rapidamente rispetto ai problemi mentre i vendor concentrano i propri sforzi su come realizzare una visione completa di DPM automatizzato. Il pezzo mancante, a mio avviso, resta l’analisi predittiva.
L’analisi predittiva è in grado di elevare gli standard del monitoraggio guidato dall’Intelligenza Artificiale, perché oggi non ci basta più semplicemente stroncare i problemi sul nascere, ma ora vogliamo prevedere i problemi prima che si verifichino, in modo da impedire loro a priori di ripercuoteresti sulle operazioni!
Alcuni semplici esempi di capacità predittiva sono facili da immaginare: ad esempio, quando l’utilizzo della memoria su un particolare server continua a salire, raggiugendo a un certo punto la soglia di attenzione, possiamo tranquillamente presumere che il server esaurirà la memoria in breve tempo.
Con le applicazioni digitali complesse, tuttavia, l’analisi predittiva spinge oltre i propri limiti le capacità dell’intelligenza artificiale e dei big data ed è propri qui che l’innovazione deve continuare a svilupparsi.
Concludendo, la strada verso il futuro è già tracciata e l’analisi predittiva si sta rapidamente evolvendo e migliorando oltre ogni previsione.