Il mercato italiano dei Big Data Analytics continua la sua espansione anche nel 2018, raggiungendo un valore complessivo di 1,393 miliardi di euro, in crescita del 26% rispetto all’anno precedente. Un risultato che conferma il trend positivo degli ultimi tre anni, in cui il settore è cresciuto in media del 21% ogni dodici mesi, anche se rimane molto ampio il divario fra le grandi imprese, che si dividono l’88% della spesa complessiva, e le Pmi, che rappresentano il 12% del mercato.
Il 45% della spesa in Analytics è dedicata ai software (database e strumenti per acquisire, elaborare, visualizzare e analizzare i dati, applicativi per specifici processi aziendali), il 34% ai servizi (personalizzazione dei software, integrazione con i sistemi informativi aziendali, consulenza di riprogettazione dei processi) e il 21% alle risorse infrastrutturali (capacità di calcolo, server e storage da impiegare nella creazione di servizi di Analytics). I software sono anche l’ambito con la crescita più elevata (+37%), seguito dai servizi (+23%) e risorse infrastrutturali (+9%). Tra i comparti merceologici, invece, i primi per quota di mercato sono le banche (28% della spesa), manifatturiero (25%) e telco – media (14%), seguiti da servizi (8%), GDO/Retail (7%), assicurazioni (6%), utility (6%) e PA e sanità (6%).
L’evoluzione del mercato dei Big Data Analytics, tuttavia, va ben oltre i numeri. Cambiano le metodologie di analisi, con l’avvento dirompente di tecniche di Machine Learning e Deep Learning, per le quali circa un terzo delle grandi imprese ha già acquisito le competenze necessarie, e dell’analisi di dati in tempo reale, già sfruttata dall’11%.
Cresce l’esigenza di competenze di data science: il 46% delle grandi imprese ha già inserito figure di Data Scientist in organico, il 42% Data Engineer, il 56% Data Analyst. Nonostante una crescita del numero di imprese con un modello di governance della Data Science maturo (dal 17% al 31%), però, più della metà (55%) presenta un modello organizzativoancora tradizionale.
Sono alcuni risultati della ricerca dell'Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano che ha coinvolto attraverso una survey oltre 600 CIO, Responsabili IT e Responsabili Analytics di piccole, medie e grandi aziende utilizzatrici e coinvolto, tramite interviste dirette o fonti secondarie, i principali player dell’offerta.
Vediamo qui sotto alcune delle evidenze emerse più in dettaglio.
Le grandi imprese
La totalità delle grandi organizzazioni adotta Analytics di tipo descrittivo, ma molte stanno sperimentando un’evoluzione verso logiche di predictive, prescriptive e, in alcuni casi, automated Analytics. L’evoluzione passa attraverso tecniche di Machine Learning e Deep Learning, che abilitano nuove tipologie di analisi, e di Real-time Analytics. Il 62% delle grandi aziende dichiara di avere necessità di competenze specifiche di Machine Learning e Deep Learning: tra queste, poco più di un terzo le ha già introdotte in organico e un ulteriore 30% prevede di farlo nei prossimi due anni. Poco più di un’azienda su dieci (11%) invece sfrutta oggi modalità di analisi in Real-Time o in Streaming, in cui vi è un flusso continuo di raccolta dei dati che devono essere analizzati con continuità. Un ulteriore 33% possiede un’infrastruttura che consente analisi in Near Real-Time, con una frequenza d’aggiornamento che scende a meno di un’ora. Il 56% delle organizzazioni analizza i dati in modalità batch, con un aggiornamento del sistema a intervalli regolari e predefiniti (solitamente giornalieri).
Nonostante siano diminuite complessità e incertezze nel percorso di adozione di progetti di Analytics, rimangono alcuni ostacoli da superare. Le difficoltà maggiori riguardano la mancanza di competenze e figure organizzative interne (53%), l’integrazione dei dati (45%) e la stima dei benefici dell’investimento (34%). Seguono la mancanza di coinvolgimento del management (27%), la necessità di investimenti troppo elevati (22%), la difficoltà nel reperire dall’esterno professionalità con competenze adeguate (18%), la scarsa qualità e affidabilità dei dati (18%) e le difficoltà nell’impiego di software e altre tecnologie (14%). Infine, nonostante il 2018 sia stato l’anno in cui il General Data Protection Regulation (GDPR) è diventato applicabile, solo il 10% del campione ha segnalato problemi di sicurezza e privacy.
Le PMI
Soltanto il 7% delle Pmi nel 2018 ha avviato progetti di Big Data Analytics, mentre quattro su dieci dichiarano di svolgere analisi tradizionali sui dati aziendali. Se si guarda alla consapevolezza e alla maturità tecnologica delle piccole e medie imprese, dalla ricerca emerge come il 10% continui ad avere una comprensione scarsa o nulla di quali vantaggi i Big Data potrebbero apportare e di come abbia un approccio all’analisi dei dati limitato e tradizionale. Poco meno di un terzo delle aziende, il 31%, è invece sulla buona strada sia dal lato della consapevolezza sia dal lato tecnologico. Circa quattro aziende su dieci (42%), inoltre, si sono mosse in una soltanto delle due direzioni o a causa di una visione limitata del fenomeno o a causa della mancanza di risorse per effettuare investimenti tecnologici. Una PMI su dieci, infine, si dimostra pronta per lanciare delle iniziative di Analytics.
I profili
Nel 2018 si registra un importante aumento delle grandi organizzazioni che si sono dotate di un modello di governance per la Data Science maturo, passate dal 17% al 31%, inserendo figure di Analytics in diverse funzioni aziendali, favorendone il coordinamento e la crescita. Oltre metà del campione (55%), però, si trova ancora in una situazione tradizionale, dove non esiste alcuna spinta verso una strategia basata sull’analisi dei dati, mentre il 14% delle grandi aziende italiane si trova all’inizio del percorso di costruzione di una strategia data-driven.
La mancanza di competenze interne rimane il principale elemento di freno allo sviluppo di progetti di Big Data Analytics. Il 77% delle grandi aziende segnala una carenza di risorse interne dedicate alla Data Science: fra queste, il 29% ritiene di poter sopperire a queste lacune con il supporto di consulenti esterni, mentre il 48% considera necessaria l’internalizzazione delle competenze di Analytics nel breve termine.
Il Data Scientist è una figura professionale ormai diffusa nelle aziende: il 46% delle grandi imprese ha inserito uno di questi profili: tra chi non lo ha ancora in organico, uno su quattro prevede di introdurlo entro il 2019. Dall’analisi condotta dall’Osservatorio su tutte le offerte di lavoro dello specifico ruolo presenti su LinkedIn, emerge che le competenze più ricercate sono la capacità di utilizzare almeno un linguaggio di programmazione (nel 74% delle offerte), le competenze di sviluppo e implementazione di algoritmi di machine learning (62%), l’abilità di comunicare e presentare i risultati agli utenti di business (36%).
Il Data Engineer è inserito nel 42% delle grandi imprese, con una presenza formalizzata nel 17% dei casi, mentre il 13% prevede di assumere almeno uno di questi profili nel 2019. Secondo l’analisi delle offerte su LinkedIn, tra le mansioni svolte da questi professionisti, figurano la gestione della data ingestion (32%) e la creazione di data pipeline (24%). Nel 58% dei casi si richiede la capacità di programmazione in Python e Javascript.
Il Data Analyst è presente nel 56% delle grandi aziende italiane e entro il 2019 si prevede che la percentuale raggiungerà il 75%. Dalle informazioni di Linkedin, le sue principali attività sono la produzione di reportistica efficace (nel 56% delle offerte) e l’individuazione di pattern e relazioni tra grandi moli di dati (28%), mentre i principali strumenti utilizzati sono Excel e MySQL.
Tra le altre figure, il Data Science Manager, la figura di coordinamento della struttura di Analytics, è presente nel 23% delle grandi aziende e entro il 2019 un ulteriore 22% ne prevede l’inserimento. Il Data Visualization Expert, che presenta un mix tra competenze di Analytics e dashboard design per trovare la migliore rappresentazione grafica per differenti tipologie di dati e di analisi, invece è presente in circa una grande azienda su dieci (9%), ma una su quattro prevede di introdurlo entro il 2019.
Big Data Analytics e GDPR
Il GDPR ha avuto un impatto sulle iniziative di Big Data Analytics in termini di azioni intraprese dalle aziende e di implicazioni sui progetti, con azioni sulle policy interne, sia di accesso ai dati (62%) sia di conservazione (55%). Il 43% delle grandi aziende ha inserito delle voci relative agli Analytics nelle nuove informative sulla privacy rivolte ai clienti, mentre il 24% ha investito in tecnologie specifiche.
Meno di una grande azienda su tre (30%) dichiara che l’avvento del GDPR ha rallentato i progetti di Analytics in corso e soltanto l’1% ha dovuto bloccare delle iniziative a causa della nuova normativa. Per circa un’azienda su cinque (il 22%) il GDPR ha avuto un impatto positivo, soprattutto perché ha aumentato la consapevolezza sulle potenzialità degli Analytics (17%) e poi perché la presenza di un chiaro quadro normativo ha permesso di pianificare nuove iniziative nel medio-lungo periodo (5%). Per il 38% delle grandi aziende il GDPR non ha avuto nessuna conseguenza in ambito analisi dati: un segnale positivo, perché indica che queste aziende erano già preparate per adattarsi al cambiamento normativo. Infine, il 9% delle grandi organizzazioni non sa come valutare l’impatto del fenomeno.
La ricerca dell’Osservatorio ha inoltre evidenziato che le organizzazioni con una struttura dedicata alla Data Governance si sono dimostrate più preparate ad affrontare il tema: tre aziende su quattro hanno modificato le proprie informative sulla privacy con voci relative agli Analytics e più della metà delle aziende ha acquistato soluzioni tecnologiche specifiche.