Di Dwight Davis, Consulente e ricercatore indipendente per SMB Group, Triangle Publishing Services, Technology Review e TechTarget
L’emergere di nuove fonti di dati da social media e Internet of Things e la crescente innovazione e velocità degli strumenti hanno portato ad un grande entusiasmo attorno ai Big Data. Le aziende vogliono scoprire insight e opportunità sommerse all’interno dell’oceano dei dati e molte stanno operando sotto lo stesso principio generale: non è possibile ottenere informazioni rilevanti da dati “grezzi”.
E’ semplice capire come si è arrivati a questo punto. I costi di data storage sono calati così in fretta da sembrare quasi illogici. Secondo PCPartPicker, il costo medio di un hard drive 7200 rpm da 6 terabyte è sceso da oltre $700 a luglio 2014 fino a circa $400 a novembre 2015. Allo stesso tempo, i maggiori provider di infrastrutture cloud, come Amazon e Microsoft, offrono gigabyte di storage gratuito ai clienti a prezzi decisamente contenuti per volumi di storage più ampi.
Combinando questo trend con l’abilità di derivare informazioni significative da dati grezzi, la tentazione di raccogliere erroneamente quantità smodate di dati si intensifica.
Le aziende che seguono ciecamente questo approccio si espongono a molti rischi, non per ultimo dal punto vista economico. “Accumulare informazioni costa molto”, nota Timo Elliott, Global Innovation Evangelist di SAP. “Anche se il prezzo dei data storage continua a scendere, l’ammontare di dati immagazzinati cresce ad un ritmo ancora più serrato”.
Questa dinamica è un esempio del paradosso di Jevons, che descrive come il progresso tecnologico che accresce l’efficienza di una risorsa (in questo caso lo storage) può risultarne in un ancora più accentuato aumento del consumo. “Immagazzinare tutti i dati possibili e poi riflettere sull’utilità degli stessi non funziona in termini economici”, avverte Elliott.
Naturalmente i costi associati allo storage vanno ben oltre il costo degli strumenti di storage in sè. Le operazioni di aggiornamento, pulizia, formattazione, archivio e gestione di grandi quantità di dati non sono a buon mercato. Non ha senso aggiungere ulteriori costi di gestione dati a meno che ci sia un’alta probabilità di ottenere benefit tangibili.
Costi a parte, ci sono altri rischi legati alla raccolta di informazioni non guidata da una solida ratio di business, tra cui:
– Più sono i dati immagazzinati, più l’azienda attrae hacker e cyber criminali, e più grande diventa la sua responsabilità nel caso di violazione
– Immagazzinare dati senza una ratio potrebbe permettere di danneggiare informazioni durante la “discovery” phase delle procedure legali
– Più dati creano inevitabilmente più “confusione” in cui cercare informazioni di valore per l’azienda. Come dice Elliott: “Più è grande il pagliaio, più è complicato trovare l’ago”.
La raccolta e l’analisi di big data possono offrire grandi benefici alle organizzazioni che li approcciano in maniera sistematica, con strategie e obiettivi di business chiari. Accumulare dati non ha senso dal punto di vista economico e di business: è necessario invece servirsi di un’intelligence dedicata ai big data in grado di processare la grande quantità di informazioni.