A cura di:
Joe Sarno
VP, Sales South East Europe, Fortinet
Quando si tratta il tema della sicurezza nel dibattito sui Big Data spesso tra i professionisti IT emergono due scuole di pensiero divergenti: da una parte il rifiuto categorico di trattare i Big Data in modo diverso da una qualsiasi infrastruttura di rete esistente e dall’altra un orientamento verso un over-engineering della soluzione dato il valore reale, o percepito, dei dati coinvolti.
I Big Data, definiti da Gartner come patrimonio di informazioni ad alto volume, ad alta velocità e/o alta varietà che richiedono nuove forme di analisi per migliorare il processo decisionale, la comprensione della conoscenza aziendale e l’ottimizzazione dei processi, aumentano le sfide poste alla sicurezza delle reti di dati esistenti.
Di seguito quattro aspetti, definiti da IDC in grado di generare sfide, ma anche opportunità:
– Volume: La quantità di dati si sta spostando dai terabyte agli zettabyte (1 zettabyte è pari 1021 byte o 1.000.000.000 terabyte) e oltre;
– Velocità: La velocità dei dati (in ingresso e in uscita), da set di dati statici al flusso di dati in streaming;
– Varietà: La gamma di tipologie e fonti dei dati: strutturati, non o semi strutturati, o grezzi;
– Valore: L’importanza dei dati nel contesto.
Mentre i Big Data presentano nuove sfide per la sicurezza, il punto di partenza per affrontarle non cambia rispetto a quando si crea una qualsiasi strategia di protezione dei dati: determinare i livelli di riservatezza dei dati, identificare e classificare quelli più sensibili, decidere dove collocare le informazioni critiche e stabilire modelli di accesso sicuro a dati e analisi.
Pianificazione del ciclo di vita dei Big Data
Per proteggere i Big Data in modo adeguato è necessario definire requisiti di sicurezza specifici relativi al loro ciclo di vita. Questo processo prevede inizialmente la protezione della raccolta dati seguita da quella dell’accesso ai dati stessi. Come per la maggior parte delle policy di sicurezza, una corretta valutazione delle minacce ai Big Data di un’azienda è un processo continuo, che si focalizza sul garantire l’integrità dei dati sia a riposo che durante l’analisi.
Le performance rappresentano un fattore chiave da considerare nel proteggere sia i dati raccolti sia le reti. I firewall e altri dispositivi di sicurezza di rete, ad esempio quelli per la crittografia, devono fornire prestazioni sufficientemente elevate per gestire l’aumento di throughput, connessioni e traffico delle applicazioni. La creazione e l’applicazione di policy per i Big Data diventano più critiche a causa del maggiore volume di dati e del numero di utenti che dovranno accedervi.
La grande quantità di dati incrementa in modo proporzionale anche la necessità di evitarne la perdita. Per garantire che le informazioni non vengano divulgate a persone non autorizzate, dovrebbero essere impiegate tecnologie di Data Loss Prevention. È necessario utilizzare sistemi interni che garantiscano l’integrità dei dati e il rilevamento di intrusioni per individuare gli attacchi mirati più avanzati che hanno superato i meccanismi di protezione tradizionale, ad esempio, l’identificazione di anomalie nei livelli di raccolta e aggregazione. Dovrebbero essere esaminati sia i pacchetti e il flusso dati, sia le sessioni e le transazioni.
Poiché i Big Data coinvolgono/includono informazioni che provengono da più fonti e che risiedono in una vasta area, le aziende devono anche essere in grado di proteggere i dati ovunque si trovino. A questo proposito, appliance virtualizzate che forniscono una gamma completa di funzionalità di sicurezza devono essere collocate in posizioni chiave in tutte le architetture cloud pubbliche, private e ibride che spesso si trovano negli ambienti di Big Data. Le risorse devono essere collegate in modo sicuro e anche i dati trasportati dalle fonti agli storage di Big Data devono essere protetti, tipicamente attraverso un tunnel IPSec.
Sfruttare i Big Data con gli strumenti corretti
I Big Data pongono delle sfide, ma offrono anche opportunità. Con gli strumenti idonei, è possibile analizzare una grande quantità di informazioni e questo consente alle imprese di comprendere e misurare attraverso benchmark le attività quotidiane. Quindi, se un’organizzazione fosse in grado di monitorare gli utenti, potrebbero ottenere informazioni in modo proattivo su potenziali violazioni dei dati e del sistema.
Questo lavoro è facilitato dalla presenza di personale IT competente e da una efficiente distribuzione degli strumenti di sicurezza appropriati. Questi tool includono strumenti di registrazione, analisi e reporting dedicati in grado di aggregare in modo sicuro i dati provenienti dai dispositivi di sicurezza e da quelli syslog compatibili. Le appliance permettono anche di analizzare, segnalare e archiviare eventi relativi alla sicurezza, al traffico di rete, ai contenuti Web e ai dati di messaggistica. Sarebbe quindi possibile misurare la conformità alle policy e produrre report personalizzati in modo più semplice.
In molte aziende, la sicurezza continuerà a essere messa in secondo piano, a causa della difficoltà nell’acquisizione, gestione ed elaborazione delle informazioni in modo rapido negli ambienti di Big Data. Con la continua crescita degli storage e della larghezza di banda, anche la mobility di questi set di dati di dimensioni maggiori tenderà a crescere, con conseguente violazione dei sistemi e divulgazione dei set di dati sensibili. Probabilmente le minacce arriveranno da intrusi che manipolano i Big Data in modo che gli strumenti di business analytics e business intelligence potrebbero generare falsi risultati e portare a decisioni gestionali dalle quali gli intrusi potrebbero trarre vantaggio.
Anche piccoli cambiamenti nei Big Data possono avere un impatto enorme sui risultati. Così, le organizzazioni non devono ignorare la necessità di proteggere i Big Data – per motivi di sicurezza, business intelligence o altri motivi. Devono affrontare le esigenze principali dei Big Data in termini di autenticazione, autorizzazione, controllo dell’accesso basato sui ruoli, auditing, monitoraggio, backup e ripristino. Con il passare del tempo, l’analisi dei Big Data che coinvolge attività di benchmarking e monitoraggio del comportamento diventerà sempre più cruciale anche nell’affrontare le sfide alla sicurezza delle informazioni di prossima generazione.