Di Andrea Sappia, Solutions Architect Italy di INFINIDAT
L’ascesa dei Big Data e la proliferazione del cloud quale ambiente per la gestione delle informazioni aziendali hanno attraversato varie fasi e stanno accentuando una tendenza preoccupante: la crescita esponenziale dei volumi di dati.
In questo contesto, archivio, gestione e protezione dei dati sono diventate attività cruciali per contenere i costi e, al tempo stesso, mantenere l’agilità del business.
Indipendentemente dalle molteplici fonti di dati che si devono prendere in considerazione, nel mondo dei Big Data, la sicurezza – con ogni probabilità – rivestirà un ruolo chiave perché la sua evoluzione influenzerà drasticamente la gestione dei dati causando un vero e proprio “effetto tsunami” in termini di budget IT. Secondo i dati dell’Osservatorio Information Security e Privacy del Politecnico di Milano, nel 2017 il mercato delle soluzioni di information security in Italia ha raggiunto un valore di 1,09 miliardi di euro, in crescita del 12% rispetto al 2016.
Per avere un’idea di che cosa significhi, è necessario analizzare due tendenze:
- il drastico aumento dei livelli di sofisticazione degli attacchi informatici
- i requisiti normativi sempre più rigorosi in ogni parte del mondo.
Per essere in grado di contrastare questi attacchi via via più avanzati, le imprese dovranno adottare nuovi strumenti di sicurezza basati su modelli Big Data poiché saranno necessari molti più dati per identificarli. Pensiamo al numero di incidenti di sicurezza che dovranno essere accertati, analizzati e correlati per impedire uno solo di questi attacchi: occorrerà inevitabilmente passare dai terabyte ai petabyte come ordine di grandezza, con un impatto significativo sullo storage e la protezione dei dati aziendali.
In breve, l’economia legata allo storage dovrà essere ripensata. Infatti, se si utilizzano tecnologie di Big Data inefficienti che, ad esempio, richiedono l’archivio degli stessi dati in ciascun sito, l’attività rallenterà. Sarà quindi necessario adottare nuovi approcci quali la disaggregazione al fine di realizzare un’architettura intelligente sin dalla fase di progettazione.
Tutti questi dati diventeranno parte di una nuova infrastruttura che – se non pensata in modo efficiente – farà aumentare i budget IT fino a renderli ingestibili.
Combattere l’aumento dei costi di storage in fase di implementazione della crittografia end-to-end
Nel caso delle normative sulla privacy, la chiave di volta è rappresentata dalla crittografia che – per ciò che concerne l’archiviazione dei dati – è sempre stata la strategia che consente agli array di cifrare i dati istantaneamente, senza penalizzare le prestazioni. Tuttavia, la superficie di attacco è molto più ampia, quindi storage e crittografia non sono in grado di proteggere i dati “in movimento”. La cifratura deve quindi essere applicata in modo da proteggere le informazioni ad ogni livello, anche quelle che transitano in rete (come sancito anche dall’articolo 34 della GDPR).
Si tratta di un presupposto chiave per il futuro perché potrebbe rappresentare un problema quando si affronta la realtà dello storage moderno. L’uso di array “All-Flash”, a lungo acclamato come il futuro per i data center, si scontra con la capacità di implementare la crittografia end-to-end (E2EE) in quanto quest’ultima non è in grado di fornire un buon rapporto costo-efficacia. Se, come risultato della crittografia, il rapporto nella data reduction di un’azienda passa da 4:1 a 1:1, il costo già elevato dei dispositivi basati solo su memorie flash si moltiplicherà per quattro, condizione insostenibile per un’azienda.
Un approccio software defined (quindi più flessibile), basato principalmente sugli algoritmi matematici piuttosto che sui media, più veloce rispetto alle tecnologie all-flash, offre una maggiore disponibilità a costi inferiori, per dati cifrati e non.
Le sfide del cloud: il Capacity on Demand come alleato insostituibile
Per quanto riguarda il cloud, la tendenza più promettente (che di fatto è già realtà) è rappresentata dai modelli Capacity on Demand. Le aziende non vogliono acquistare nulla di superfluo, ma neanche rimediare all’ultimo momento. Ne risulta un conflitto tra agilità e costi che le aziende sperano di risolvere scaricando su terzi la responsabilità del rischio. È qui che entra in gioco la Capacity on Demand, in particolare per le aziende italiane, tenuto conto che, secondo dati IDC, nel 2018 prevedono di aumentare i loro budget dedicati al cloud del 27,8%.
Con le soluzioni Capacity on Demand le imprese ottengono l’agilità del cloud e possono crescere in base alle loro reali esigenze, pur mantenendo i dati nelle proprie strutture. Nessun rischio legato alla sicurezza, nessuna necessità di acquisire nuove conoscenze. Il problema è risolto nel modo in cui le aziende desiderano: un’esperienza come il cloud nel proprio data center.
Con un’architettura multi-petabyte software-defined ciò è possibile: il cliente acquista il servizio, implementa il sistema e paga per una percentuale di “capacity”. Quando vorrà crescere potrà farlo sapendo esattamente quanto spenderà e senza la necessità di negoziare ogni terabyte aggiuntivo.
La chiave è prendere la decisione giusta
È chiaro che ci troviamo di fronte a un momento di cambiamento. Sia l’adozione di nuove applicazioni (e nuovi modi di consumarle), sia la riorganizzazione dei data center vivono infatti un momento cruciale non solo perché il cambiamento è dirompente, ma perché implica decisioni importanti che influenzeranno i budget e l’impronta futura dell’IT. Dal punto di vista della gestione dei dati è il momento di fare questa scelta dato che l’economia dello storage sarà uno degli aspetti critici per qualsiasi business plan. Le alternative ci sono e il successo di questa rivoluzione dipende proprio dalle scelte che verranno operate.