Qlik, noto specialista nella Data Analytics, ha identificato le 10 tendenze che influenzeranno il 2019. Vediamole insieme.
- Kubernetes e i microservizi diventano lo standard
Nei prossimi 12 mesi la maggior parte dei decisori aziendali mirerà ai microservizi e all’orchestrazione dei container come componente architettonica essenziale delle piattaforme BI e Analytics.
I microservizi, infatti, rappresentano un nuovo approccio allo sviluppo di applicazioni in cui un’applicazione più ampia viene costruita come una suite di componenti o con servizi modulari. A sua volta, Kubernetes è un’innovazione tecnologica di grande impatto che può orchestrare e distribuire applicazioni e carichi di lavoro containerizzati.
Quello che prima era monolitico ora viene distribuito e reso scalabile (prima ridimensionando l’hardware, poi l’infrastruttura e i carichi di lavoro). È un modo per accedere ed elaborare i dati localmente e in periferia, raggiungendo luoghi che le piattaforme BI del passato non potevano raggiungere.
I team di sviluppo dei software stanno adottando rapidamente questo approccio. Nell’arco di un anno, è diventato un fattore importante, in cui i team di sviluppo delle app delle imprese ora orchestrano le applicazioni basate su container e richiedono ambienti di produzione Kubernet.
- Multi-Cloud, ibrido ed Edge as Continuum
Nel 2019 emergeranno piattaforme in grado di gestire multi-cloud, cloud ibrido e edge as continuum.
Il passaggio al multi-cloud, infatti, è in atto. I leader IT stanno ora migrando in modo crescente non solo i loro dati nati nel cloud, ma anche i dati mission-critical che guidano la loro attività. On-demand, storage a basso costo e un ricco ecosistema di strumenti rendono l’opportunità multi-cloud molto avvincente. Tuttavia, a causa del rischio derivante dal lock-in e della poca flessibilità a causa di regolamenti come GDPR, le organizzazioni non centralizzano tutti i dati in un unico luogo.
Oltre alla protezione dei dati, la gestione sul cloud richiede delle regole ben precise che, se non sono organizzate al meglio, possono portare al collasso della struttura. Quindi, il passaggio dai data center on-premise e legacy dovrebbe essere fatto secondo un ritmo che permetta alle aziende di sentirsi a proprio agio.
Calibrare e distribuire i dati centralmente su molteplici cloud, così come su servizi ibridi on-premise e cloud continuum, è un ottimo modo per proteggere la struttura. L’edge computing fornisce un complemento decentrato dei moderni data center hyperscale cloud e legacy ed è spesso scelto per motivi di latenza, privacy e sicurezza. Una piattaforma post-moderna dovrebbe essere in grado di gestire dati distribuiti, carichi di lavoro e utilizzo su multi-cloud, ibrido e edge as continuum.
- La visualizzazione unica di tutti i dati è qui
Nel 2019, l’attenzione si sposterà dal mettere i dati in un unico posto a ottenere un’unica visualizzazione dei dati. Nei prossimi mesi, infatti, l’attenzione si sposterà dal semplice inserimento dei dati in un unico luogo a un’unica visualizzazione dei dati. La possibilità di avere una visione unica di tutti i dati non è mai stata così importante. I dati provengono da tutte le direzioni, a velocità e formati diversi e poterli controllare sarà uno dei fattori di empowerment e successo nell’era dei dati.
Storicamente, ci sono voluti molti sforzi per arrivare a questo risultato. La scelta di mettere tutti i dati in un unico luogo non è stata sufficiente, e questo sta accadendo di nuovo nel cloud. È un’impresa apparentemente impossibile perché ci saranno sempre nuovi dati in arrivo, ma due importanti tendenze renderanno possibile la visualizzazione unica di tutti i dati.
Anzitutto, ci sono diversi fornitori che collaborano per standardizzare i modelli di dati uniformando i formati delle fonti di dati. In secondo luogo, e ancora più importante, stanno emergendo i cataloghi di dati aziendali: accessibili in un hub, questi cataloghi consentono di controllare l’intera proprietà dei dati, offrendo un’esperienza “shop-for-data”. Più gli utenti condividono, collaborano e utilizzano l’hub, più questo diventa prezioso per il business. Inoltre, esso è in grado di collegare la strategia di analytics con la strategia di gestione dei dati aziendali.
- L’Analytics “ovunque” ridefinisce i processi in tempo reale
Nel 2019, le analytics saranno più pervasive e addirittura ridefiniranno i processi aziendali: incorporare le analytics nei processi di business non è una novità, ma sta diventando una scelta sempre più diffusa. Gli utenti vogliono inserire le analytics all’interno dei loro flussi di lavoro perché contribuiscono a rendere i dati più utilizzabili anche in tempo reale.
Tutto ciò viene alimentato dall’apprendimento automatico e dall’intelligenza artificiale, che possono fornire informazioni contestualizzate e azioni suggerite. È la base delle “analytics continue”, in cui l’analisi in real time verrà integrata gradualmente all’interno dei processi aziendali e nei dispositivi IoT, elaborando i dati per suggerire azioni in risposta agli accadimenti aziendali.
Nei prossimi cinque anni le applicazioni “intelligenti” saranno onnipresenti. Inoltre, le analytics stanno iniziando a ridefinire i processi aziendali. Le nuove tecnologie, come l’automazione dei processi robotizzati e il process mining, guardano al digitale e, partendo proprio da questo, automatizzano ulteriormente o riformulano i processi aziendali.
- L’ecosistema esterno accelera l’innovazione
Nel 2019 l’innovazione esterna supererà di due volte quella interna: la quantità di persone in grado di innovare grazie alla tecnologia è limitata, ma con un forte ecosistema la quantità di persone che possono innovare dall’esterno è illimitata.
Ecco perché le piattaforme aperte con ecosistemi sostituiranno gradualmente quelle chiuse. Nel 2019, il mercato realizzerà definitivamente che le API aperte e le estensioni rappresentano una necessità, poiché l’innovazione da piattaforme aperte con ecosistemi supererà quelle con solo innovazione interna di un fattore 2x.
- Le Analytics come la tecnologia consumer
Nel 2019 performance e scalabilità saranno al centro dei criteri di selezione.
Dal momento che le aziende adottano spesso data center hyperscale, le prestazioni stanno diventando sempre più importanti tra i criteri di selezione. Alcune organizzazioni hanno spostato i propri dati attraverso la “ripatriazione” a causa di performance non convincenti. Questo diventa ancora più importante in un’applicazione IoT: sempre più carichi di lavoro verranno eseguiti localmente o in periferia per evitare la latenza.
In breve, le prestazioni efficienti saranno un fattore decisivo per il modo in cui le architetture appariranno: centralizzate o distribuite.
- L’Intelligenza Aumentata rende le Analytics più umane
Nell’analisi dei dati, viene spesso trascurato l’enorme divario tra i dati creati e la capacità umana di elaborarli e agire su di essi. C’è anche un divario tra la disponibilità degli attuali strumenti analitici e la loro adozione all’interno delle organizzazioni. Queste lacune possono e devono essere colmate: il risultato di tutto ciò conferirà potere agli umani.
Attraverso la catena del valore delle informazioni – dalla lettura dei dati alla preparazione, all’analisi critica con meno pregiudizi, alla presentazione di risultati contestuali – l’AI rimuoverà molti dei colli di bottiglia che disincentivano gli utenti. L’apprendimento automatico e la telemetria cattureranno anche la potenza del collettivo, che può essere reimmesso in un circuito virtuoso, migliorando ulteriormente e contestualizzando l’esperienza dell’utente.
Il paradosso è quindi che i dati e le analytics diventeranno più umani che mai, grazie all’Intelligenza Artificiale.
- Il Data Storytelling diventa reale per gli utenti business
Nel 2019 ci sarà una convergenza tra tecnologie visive, conversazionali e di presentazione, facilitando lo storytelling persuasivo.
Molte persone percepiscono i dati come noiosi, ma amano le storie supportate dai dati. Cosa si può fare per introdurre una maggiore proporzione di logica nel mix, ad esempio lasciando che i dati “parlino”? Questo risulta essere molto più attraente rispetto alla mancanza di dati.
Oggi, la maggior parte delle storie sono raccontate da software di presentazione, davvero poco interessanti. Ma dato che la maggior parte delle persone li padroneggia, gli utenti si affidano a esso per far passare il loro messaggio. Nello spazio dati ci sono nuove tecniche a disposizione degli analisti per raccontare storie attraverso visualizzazioni e infografiche personalizzabili.
Negli ultimi tre anni è emersa la narrazione dei dati machine-driven, che offre narrazioni attraverso un linguaggio naturale. Le analytics conversazionali renderanno questo approccio molto più interattivo e accettato. Questi due approcci dovranno essere potenziati da metodi ancora più user-friendly per raccontare storie di dati, in cui i supporti visivi ne aumentano i risultati.
Di conseguenza, le tecnologie di storytelling e presentazione dei dati si uniranno gradualmente per presentare le proprio idee in modo convincente. L’alfabetizzazione dei dati amplierà il pubblico in grado di comprendere le presentazioni. Questo significa che il ruolo di analista di dati e grafico si sovrapporranno sempre più.
- Alfabetizzazione dei dati: il nuovo KPI
Nel 2019 la Data Literacy diventerà un indicatore chiave di performance (KPI) per le aziende: anche se tutti capiscono che leggere, lavorare, analizzare e discutere con i dati è importante, è stato difficile sapere da dove cominciare.
I meno esperti dovranno partire dalle basi, mentre i data scientist saranno sempre alla ricerca di nuove sfide per superare la noia. Per migliorare l’alfabetizzazione dei dati nelle organizzazioni è necessario innanzitutto determinare a che livello si trova l’azienda nella gestione dei dati.
Stanno emergendo nuovi metodi per misurare e indicizzare l’alfabetizzazione dei dati. Usando questi, le persone e le organizzazioni possono aumentare le competenze in un modo più preciso e mirato. Ciò che è ancora più interessante, è che ora è possibile attribuire un punteggio sull’alfabetizzazione dei dati tramite la Data Literacy, che innalza le competenze dal basso verso l’alto e il suo divenire un KPI può aiutare il management a dirigere le prestazioni aziendali dall’alto verso il basso, come iniziativa strategica e differenziante. In futuro, avere un punteggio elevato di alfabetizzazione dei dati diventerà probabilmente un criterio per assumere talenti.
- Da piattaforme di Analytics a ecosistemi di dati
Nel 2019, le piattaforme evolveranno in sistemi virtuosi.
Tutti parlano di piattaforme, tanto che questa parola ha perso di significato. La struttura della BI e delle analytics può essere un modo utile per capire ciò che costituisce una vera piattaforma. Questo aiuta a comprendere e imparare di più sull’utilità di un artefatto e, cosa più importante, apre le interazioni oltre il concetto di ‘un utente e uno strumento’ o ‘un lettore e un report’.
La BI e le analytics sono più efficaci se considerate come un “sistema” e non semplicemente come una serie di artefatti e strumenti. Una differenza importante è che la singola persona utilizza gli strumenti, ma un insieme di persone partecipa all’interno di sistemi. Un sistema postmoderno contiene molteplici persone con ruoli, capacità o intenzioni differenti. E non sono gli unici. Partecipano anche servizi digitali, bot, agenti intelligenti, estensioni, algoritmi e così via. La diversità e la raffinatezza di questi partecipanti non umani è destinata a crescere astronomicamente nei prossimi anni.
Ed è lo scambio e l’apprendimento tra tutti questi partecipanti che incrementa il valore del sistema, aumentando l’intelligenza umana e della macchina al suo interno. Un sistema aperto di autoapprendimento, contenente le 9 tendenze precedenti e che migliorerà con un’ulteriore partecipazione, definirà come saranno le future piattaforme e consentirà la democrazia dei dati e il potenziamento analitico.