[section_title title=sfruttiamo troppo poco i dati sull’esperienza dell’utente finale – parte 2]
La complessità guida l’evoluzione dell’APM
Fornitori e aziende operano insieme per fare crescere le capacità di monitoraggio delle prestazioni; passando dal monitoraggio in tempo reale e dal reporting sullo storico verso un isolamento più sofisticato del dominio di errore e all’analisi delle cause principali, utilizzano analitiche sempre più complesse per prevedere, prevenire e intervenire nel correggere i problemi.
Uno dei driver più interessanti del settore è proprio la crescita della complessità – delle reti di data center, della catena di distribuzione delle applicazioni e delle architetture applicative – e, di conseguenza, il volume crescente di dati che mettono alla prova gli attuali approcci al monitoraggio delle prestazioni delle IT operation. Fondamentalmente si tratta di un problema di big data!
La risposta sono le soluzioni di IT operations analytics (ITOA), giunte sul mercato come un approccio che consente di ricavare intuizioni sui comportamenti del sistema IT (tra cui, ma non solo, le prestazioni) analizzano grandi volumi di dati provenienti dalle fonti più disparate. La visione di Gartner del mercato ITOA è molto interessante: la spesa è raddoppiata dal 2013 al2014, raggiungendo i 1,6 miliardi di dollari, con una stima che vede oggi solo il 10% delle imprese utilizzare queste soluzioni e quindi un potenziale di crescita enorme!
Non entrerò maggiormente nei dettagli delle soluzioni ITOA ma vorrei sottolineare come il loro valore vada oltre alla questione della gestione dei problemi e degli incidenti.
Ad esempio, possono offrire vantaggi importanti nella gestione dei cambiamenti e delle configurazioni. Dal punto di vista delle prestazioni, le fonti di dati possono includere i log di sistema, informazioni sulla topologia, le metriche prestazionali, gli eventi e altro, a partire dai server, dagli agent e dalle sonde. Le informazioni sono memorizzate, indicizzate e analizzate per raggiungere obiettivi importanti, come l’identificazione dei trend, il rilevamento delle anomalie, l’isolamento dei domini di errore, la definizione della causa principale, e la capacità di prevedere i comportamenti. C’è una certa somiglianza con gli sforzi precedenti del BSM nel combinare i diversi dati di monitoraggio, ma le tante capacità e le promesse che queste analitiche comportano – come ad esempio l’apprendimento automatico – rendono questo approccio notevolmente differente e, infatti, si parla spesso dello ITOA come il futuro dell’APM.
L’esperienza dell’utente finale come chiave per un servizio efficiente
Tornado al tema delle prestazioni delle applicazioni, anche i sistemi ITOA più solidi potranno dire ben poco se non includono le metriche sull’esperienza dell’utente finale. Certo, sarà possibile venire a conoscenza di anomalie di cui non si sapeva l’esistenza e acquisire una conoscenza diretta dei problemi imminenti ma una reale efficienza dell’IT e l’allineamento al business sono fondamentali per l’orientamento efficace del servizio e richiedono il contesto dell’esperienza dell’utente finale; ignorare questo significherebbe non cogliere un passaggio fondamentale verso la maturità.
Dynatrace tramite Data Center Real User Monitoring (DC RUM) misura il tempo di risposta degli utenti finali, e può includere sia le metriche sull’utente reale sia la misurazione sintetica per un vasto numero di applicazioni. DC RUM sfrutta la visibilità sull’esperienza dell’utente finale, sulla rete e a livello della transazione per analizzare le prestazioni, guidare l’isolamento del dominio di errore e determinare l’impatto sul business.