[section_title title=Parte 1]
A cura di Antonio Capobianco, CEO Fata Informatica
L’adozione del cloud da parte delle aziende sta crescendo a ritmi esponenziali. Stando ai dati recentemente forniti dalla società d’analisi IDC, si stima che il mercato globale del cloud chiuderà il 2015 raggiungendo i 32 miliardi di dollari, in salita del 28% rispetto ai 26 miliardi di dollari del 2014.
Ma, al di là dei numeri e delle statistiche, siamo sicuri che il mercato abbia accettato in toto il cloud? A ben vedere, risulta che il graduale passaggio alla “nuvola” si stia verificando principalmente nella modalità ibrida, con un gran numero di aziende che sceglie quali applicazioni tenere on premise, ovvero in casa, e quali portare nel cloud pubblico.
In molti casi, infatti, anche le aziende che hanno accettato di passare al cloud pubblico, continuano a disporre di un ambiente di cloud computing che rimane completamente all’interno del datacenter, e che consente di mantenere i dati dentro la propria struttura operativa, bypassando le note preoccupazioni inerenti la privacy e la sicurezza. Ad esempio, se il front-end di un’azienda è sempre più spostato verso il cloud pubblico, i sistemi legacy (es. i sistemi di fatturazione) restano, ad oggi, ancora ancorati all’on premise.
Questo spostamento di una parte del parco applicativo in cloud – sebbene in modalità ibrida – ha però una ripercussione diretta sui costi aziendali. Consapevoli che il proprio portfolio applicativo abbraccerà il cloud pubblico e l’ambiente on premise per i prossimi dieci anni, molte aziende devono fare i conti con una sostanziale riduzione degli investimenti nella propria infrastruttura.
In questo panorama caratterizzato da una generale riduzione della spesa aziendale, approntare un’efficace strategia di prevenzione del rischio dei propri apparati – in primis i datacenter – diventa essenziale per qualsiasi azienda.
Questo è tanto più vero se si considera che garantire la ridondanza degli impianti per assicurare la continuità di servizio dei datacenter risulta particolarmente oneroso per un’azienda di piccole e medie dimensioni. Un approccio del tipo “ridondanza N+1”, secondo cui ci si affiderebbe ad un apparato IT in più rispetto al necessario, si trasforma, infatti, in un approccio “N” se uno degli elementi si danneggia e, contemporaneamente, un secondo elemento si rompe. Certo si potrebbe optare per un approccio N+2 o N+3, N+4 e così via, ma cosa significherebbe questo da un punto di vista dei costi aziendali?
La domanda è più che lecita se si pensa che le aziende si trovano oggi a dover fronteggiare un duplice problema: da una parte devono garantire una reattività immediata alle criticità nel momento stesso in cui si manifestano, dall’altra devono tagliare drasticamente i costi finanziari e ambientali dei propri datacenter. Se l’adozione di nuove architetture, come container, strutture modulari ed economizzatori può certamente aumentare l’efficienza in termini di costi, risulterebbe più strategico risparmiare massimizzando le efficienze operative.
In questo contesto, un “approccio predittivo” che favorisca azioni di monitoraggio e prevenzione sembrerebbe essere una strada obbligata, per quanto non priva di insidie.
Secondo quanto emerso dallo studio Fall Survey of Data Center Users, condotto da Emerson Network Power lo scorso novembre, il monitoraggio del funzionamento dei datacenter è, infatti, al centro delle preoccupazioni dei top manager. In particolare, il 35% degli intervistati – tutti membri del Data Center Users’ Group (DCUG), un’associazione che riunisce i più influenti manager nel settore data center, It e facility per il Nord America, sostiene che garantire un adeguato monitoraggio delle capacità e funzionalità dei datacenter rappresenta una delle tre principali preoccupazioni per la loro azienda.
Per proseguire nella lettura della riflessione vai alla pagina seguente.