Mentre i tempi nella vita aziendale diventano ogni giorno sempre più accelerati e la dipendenza dai dati cresce alla velocità della luce, gran parte delle aziende di piccole e medie dimensioni effettua ancora il backup dei dati giornalmente o persino settimanalmente per proteggerli contro eventuali perdite, o cancellazioni e danneggiamenti accidentali. Questa tecnologia antiquata crea rischi sempre più seri alle aziende di tutto il mondo. Gli ambienti aziendali moderni e competitivi hanno necessità che i dati vengano salvati ad intervalli orari nel corso della giornata lavorativa senza condizionare utenti o applicazioni.
Il nemico n. 1 delle Pmi: costi e complessità
Quindi ciò significa che i manager o i responsabili It delle Pmi sono un po’ miopi o esageratamente conservativi o addirittura non si rendono conto di questo rischio? Tutt’altro! Quando si tratta di comprendere la tecnologia, le aziende di piccole e medie dimensioni sono all’avanguardia e lo dimostra il livello di adozione della virtualizzazione, dove le Pmi sono un passo avanti rispetto alle grandi imprese. La vera ragione sta, come spesso accade, nella complessità e nei costi che sono i nemici naturali di qualsiasi piccola e media azienda.
Fino ad ora, la realizzazione di un’infrastruttura di backup che consentisse il backup a cadenza oraria attraverso la creazione dei cosiddetti “snapshot” dei dati, era possibile in due modi: o attraverso l’acquisto di sistemi di storage di livello enterprise molto costosi o utilizzando software di backup complessi, non particolarmente flessibili e spesso non così convenienti da integrare nelle infrastrutture di rete esistenti. Entrambe queste opzioni, sia per i costi che per la difficoltà di gestione, non erano alla portata di molte Pmi che, in questo modo, sono rimaste intrappolate nella loro tecnologia esistente, spesso ben sapendo a quali rischi rimaneva esposta la loro azienda.
Tre fattori che fanno la differenza
Quindi qual è l’elemento che determina l’incapacità dei sistemi di storage di tutte queste Pmi a fornire una tale granularità oraria? Alcuni di questi sistemi offrono già una sorta di “snapshot” dei dati. Non è necessario essere un tecnico per capire la risposta a questo quesito. Innanzitutto, è importante considerare più attentamente quali sono i requisiti per una protezione dei file o dei dati applicativi a cadenza oraria.
Primo: l’utilizzo della capacità di storage. Se i dati vengono salvati su base oraria, è necessario avvalersi di una soluzione in grado di ottimizzare l’utilizzo dello storage, altrimenti la capacità disponibile verrà immediatamente consumata dai dati di backup.
Secondo: il backup deve avvenire durante le normali ore lavorative e quindi gli utenti e le applicazioni non devono essere condizionati da tale processo. In parole povere, le prestazioni di lettura e scrittura del sistema di storage non devono essere influenzate in alcun modo dall’attività di backup.
Terzo, e anche uno degli aspetti più trascurati: il tempo di ripristino (Recovery Time Objective) nel caso di perdita dei dati è importante almeno quanto il Recovery Point Objective, ovvero la frequenza o l’intervallo nel quale i dati vengono memorizzati.
Soltanto se questi tre parametri sono gestiti correttamente, un sistema di storage è in grado di fornire la granularità di protezione oraria, mantenendo al contempo la piena produttività dell’utente e delle applicazioni e consentendo il recupero dei dati nel caso di perdita.
È una questione di file system!
Dopo aver indicato i tre requisiti fondamentali, sorge ora spontanea la domanda su cosa sia necessario dal punto di vista tecnologico per fornire queste funzionalità a un sottosistema di storage tipico delle Pmi.
Come indicato nei paragrafi precedenti, il file system di storage deve scrivere i dati in modo da ridurre al minimo l’utilizzo dello storage. Ciò significa che solo i blocchi modificati in un file share o iScsi Lun dovrebbero essere scritti nello “snapshot” di quel share o file. Se vengono effettuati dei cambiamenti nell’attività giornaliera, solo i blocchi modificati hanno necessità di un effettivo spazio fisico. Questo, combinato con funzionalità intelligenti di gestione degli snapshot, che cancellano questi ultimi secondo schemi definiti, assicura i requisiti minimi di storage, mantenendo al contempo la protezione su base oraria. Anche un’impostazione basata su share/Lun consente di regolare alcuni share a una granularità di snapshot quotidiana o settimanale per i dati che non vengono modificati molto di frequente.
Quando si tratta di impatto sulle prestazioni, la tecnologia è persino più impegnativa. Per creare una copia dei dati senza intaccare le prestazioni, un file system deve far riferimento unicamente ai blocchi modificati, attraverso puntatori dei dati primari, invece di passare in rassegna tutto il file (Copy-on-Write). Solo in questo modo gli snapshot possono essere creati in un numero teoricamente illimitato e senza impattare minimamente sulle prestazioni. Un test di qualsiasi sistema di storage Nas tradizionale, che funziona con il file system Ext4, fa capire qual è la vera sfida: se i dati sono scritti sul Nas, ipoteticamente a 90 Mb/s, e viene realizzata una copia tradizionale, si può notare che le prestazioni scendono a una frazione dei 90 Mb. A peggiorare le cose, una volta realizzati snapshot multipli – necessari per la protezione continua – le prestazioni del sistema restano seriamente compromesse anche quando non vengono scritte le copie.
Ora questo limite è intrinseco a qualsiasi soluzione di storage basata su file system Ext3 or Ext4 attualmente sul mercato. Ciò a sua volta significa che, per le Pmi, il solo modo per acquisire “una protezione quasi continua dei dati” con un Nas è passare a un approccio basato sulla tecnica “copy on write” come Btrfs o Zfs open source. Questi file system moderni consentono la creazione di un numero illimitato di snapshot che sfruttando un approccio di tipo blocco e puntatore, senza intaccare le prestazioni.
Il backup è solo metà del problema
Come è stato detto all’inizio, il Recovery Point Objective e il Recovery Time Objective determinano, insieme, il successo o l’insuccesso della strategia di protezione dei dati. Una moderna soluzione di protezione dei dati per le Pmi, quindi, non dovrebbe basarsi solamente su Btrfs o Zfs per garantire una protezione quasi continua dei dati, ma fornire anche diverse opzioni su come utilizzare gli snapshot su base oraria. Questo include il ripristino di un singolo file in pochi clic, nel caso, ad esempio, in cui un utente cancelli accidentalmente o sovrascriva dati importanti. Inoltre, il reparto amministrativo dovrebbe essere in grado di effettuare il rollback di share o Lun completi a un qualsiasi momento precedente. E non meno importante, quando si tratta di effettuare test e riparazioni, creare un clone scrivibile e leggibile di un Lun o uno share è un eccezionale strumento negli ambienti che utilizzano macchine virtuali.
L’amico n. 1 delle Pmi: facilità di utilizzo e convenienza
Come sopra descritto, solo fino a poco tempo fa acquisire il livello adeguato di protezione dei dati era possibile unicamente a costi e/o a livelli di complessità elevati. Entrambe le soluzioni, sia quelle di fornitori che offrono soluzioni enterprise di fascia alta molto care e soluzioni Zfs “fai da te” che una combinazione di storage a prezzo conveniente con software di backup di terze parti, davano del filo da torcere alle Pmi. Grazie a soluzioni integrate, semplici da utilizzare e a prezzi convenienti basate su Zfs e Btrfs, come le famiglie di prodotti ReadyNas e ReadyData di Netgear, i clienti possono ora creare ambienti di backup dei dati che non molto tempo fa richiedevano investimenti a 5 cifre, oltre che personale It altamente qualificato. Oltre a tutte le funzionalità necessarie, ReadyNas e ReadyData forniscono funzionalità di controllo e una Gui che consente l’implementazione e la gestione senza la necessità di un lungo periodo di training. Inoltre, tutte le licenze di software sono incluse nei prodotti garantendo così la massima trasparenza dei costi e il controllo del Tco (Total Cost of Ownership).