[section_title title=I quattro principi del controllo unificato nel mondo digitale – Parte 1]
Di Rafi Katanasho, APAC Chief Technical Officer and VP of Solution Sales di Dynatrace
Le organizzazioni aziendali cercano sempre più di focalizzarsi sul cliente ed essere più agili, scalabili e reattive, mentre gli ambienti IT, che affrontano il cambiamento digitale, si trasformano rapidamente e diventano ogni giorno più complessi. Questi sono i motivi principali per cui oggi le prestazioni digitali sono una priorità e lo spazio dedicato al monitoraggio delle prestazioni è diventato affollato e multiforme.
Gli approcci più comuni al monitoraggio unificato
Dal oltre vent’anni, il mio lavoro mi mette quotidianamente in contatto con i fornitori dei servizi cloud e dei servizi gestiti, con gli enti governativi e le organizzazioni aziendali, realtà diverse che hanno intrapreso percorsi di innovazione differenti ma che hanno in comune la necessità di affrontare il monitoraggio unificato delle prestazioni. Ecco i tre approcci principali che fino a oggi molti di essi hanno adottato:
1) Unificare attraverso le acquisizioni
I principali vendor IT di operation management come IBM, CA, BMC e HP (che un tempo erano definiti i Big 4 del settore), hanno affrontato diverse acquisizioni e investimenti consistenti nel tentativo di fornire alle aziende un pannello di controllo unico dal quale guardare alle prestazioni. Se analizziamo le soluzioni andando oltre la superficie scopriremo però che siamo di fronte a numerosi strumenti collegati tra loro con configurazioni diverse e archivi di dati differenti. Tutti sono integrati in modo incerto e ognuno si scontra con gli altri nel tentativo di raggiungere un monitoraggio unificato.
2) Adottare una piattaforma unificata sostenuta da strumenti differenti
Nel secondo caso si tratta di avere implementato degli strumenti di monitoraggio a partire da un caso specifico (ad esempio il monitoraggio in ambiente java/NET, Ruby o della rete) e aver poi esteso la soluzione per colmare qualche lacuna attraverso ulteriori acquisizioni o tramite lo sviluppo interno.
Si tratta di un approccio simile al primo, a parte il fatto di avere una piattaforma comune che unifica i diversi dati e la reportistica. In questo caso, il problema è che il controllo unificato arriva a posteriori e, quindi, ogni volta che si estende l’offerta dell’azienda, la soluzione richiede una riprogettazione o una nuova architettura. Quest’approccio disorganico dovrà sempre lottare per poter monitorare ambienti complessi in modo olistico.
3) Promuovere le analitiche pure e gli algoritmi
Il terzo approccio è comunemente noto come IT Operations Analytics (ITOA) e si basa sulle fonti di dati di terze parti e la loro integrazione, con algoritmi ad hoc e personale qualificato che sa esattamente come collegare tutto insieme. Qui la criticità è che l’ambiente IT cambia e diviene più complesso con una rapidità tale da non poter fare più affidamento sui processi manuali. Per non parlare del fatto che le risorse IT sono sempre più limitate! Inoltre, il successo del monitoraggio dipende in buna parte dalla ricchezza delle fonti di dati che definiscono il contesto; dopo tutto, non importa quanto gli algoritmi siano validi, dati in entrata palesemente insensati producono, a loro volta, un risultato insensato.
Scopri i segreti del monitoraggio unificato nell’era digitale