[section_title title=sfruttiamo troppo poco i dati sull’esperienza dell’utente finale – Parte 1]
A cura di Gary Kaiser, Expert in Network Performance Analytics di Dynatrace
Molti di noi sono alle prese con le tante incalzanti esigenze del business digitale: sviluppare nuove applicazioni mobile, valutare la sicurezza di fronte all’Internet of Things, gestire il passaggio al cloud ibrido, testare nuovi approcci per passare al network software-defined.
Sono tutti elementi di un trend in costante crescita che vede l’IT sempre più orientato ai servizi, con l’obiettivo primario di offrire all’utente finale un’esperienza di qualità elevata, per tutti gli utenti – interni all’azienda, partner e clienti – con la velocità, la qualità e l’agilità che il business oggi richiede.
Come soddisfare aspettative così elevate? Mentre i data center moderni si evolvono rapidamente verso ambienti più agili, le architetture di rete e le applicazioni diventano sempre più complesse, ostacolando gli sforzi per comprendere la qualità del servizio a partire dal semplice monitoraggio delle infrastrutture e delle applicazioni. La virtualizzazione, ad esempio, può oscurare la visibilità sulle prestazioni critiche e le dipendenze complesse dei servizi mettono alla prova anche i migliori analisti delle prestazioni. Questa potrebbe essere la premessa di un vero disastro nel mondo del monitoraggio e gestione delle prestazioni ma, in realtà, racchiude al suo interno la chiave per raggiungere il successo.
La qualità del servizio è negli occhi di chi lo utilizza
Per capire se un servizio à veramente di qualità, dobbiamo misurare l’esperienza che di esso ha l’utente finale (EUE). Ricordate il detto “la bellezza è negli occhi di chi guarda?” Vale anche nel modo delle applicazioni dove la qualità del servizio non è qualcosa che può definirsi a priori ma è negli occhi dell’utente. Tale visibilità è oggi più che mai fondamentale per l’eccellenza dei servizi IT, perché fornisce un contesto importante per interpretare in modo più efficace le metriche delle prestazioni delle infrastrutture.
Oggi, i team delle IT operation si concentrano spesso sul monitoraggio delle infrastrutture più accessibili – dispositivi, rete, server, applicazioni, storage – a partire dalla considerazione che il tutto è uguale alla somma delle parti. La teoria prevedeva (e per molti ancora prevede) che, raccogliendo e valutando le metriche delle prestazioni rispetto a tutti questi componenti, si possa mettere insieme una conoscenza ragionevole della qualità del servizio. I più ambiziosi combinano le metriche provenienti dalle tante e diverse soluzioni di monitoraggio in una singola console, magari con una correlazione temporale, o un’analisi programmata di causa ed effetto.
Questo approccio, a cui spesso ci si riferisce come Business Service Management, comporta però la necessità di alimentare in modo continuativo le soluzioni con nuovi dati e controllarne il funzionamento. Anche se molti lo hanno già abbandonato, questo approccio ci ha insegnato qualcosa: l’esperienza dell’utente è fondamentale per l’efficienza dell’IT perché è l’unico modo per sapere se ci sono problemi che si ripercuotono sugli utenti, definire le priorità di risposta ai problemi in base all’impatto sul business, evitare di dare la caccia a problemi che non esistono e affrontare il troubleshooting giungendo a una soluzione con la certezza di sapere se e quando il problema è stato veramente risolto.
Prosegui la lettura alla pagina seguente