Le tecnologie dei Data & Analytics oggi consentono di trarre informazioni sempre più approfondite dai dati ed evolvono a un ritmo vertiginoso, rivelandosi uno strumento chiave per le aziende, in grado di ottimizzare le prestazioni e, conseguentemente, di potenziare il proprio business.
Tra i tanti sviluppi innovativi che caratterizzano questo settore, Luca Quagini, fondatore e Amministratore Delegato di SDG Group, ha voluto soffermarsi su dieci tendenze principali, suddividendole in tre categorie, in base al loro diverso grado di maturità.
TREND CONSOLIDATI
-
Datawarehousing: Data Mesh, Data Fabric & Data Vault 2.0 – una generazione cloud-native
Il cloud, che rende più facile adottare le architetture di dati e i modelli con strutture scalabili e trasformative, apre le porte alla prossima generazione del Data Warehouse, abilitando Data Mesh, Data Vault 2.0 e Data Fabric, tecnologie e pratiche progettate e costruite nativamente nel cloud.
Il Data Mesh è un approccio olistico alla gestione dei dati in cui convergono un’architettura domain-driven distribuita, il trattamento dei dati come un prodotto, la progettazione di infrastrutture di dati self-service e la governance dell’ecosistema. Il passaggio logico successivo è quello che porta alla Data Fabric, ovvero un’architettura che permette l’accesso e la condivisione dei dati in un ambiente distribuito, cloud privato, pubblico, on-premise o multicloud. Non si tratta di un concetto nuovo, è stato introdotto nel 2016 da Forrester, ma il suo inserimento al primo posto nei Top Strategic Technology Trends 2022 di Gartner indica oggi la maturità di questo modello.
Questo strato di dati scalabili e processi di connessione automatizza la raccolta, la selezione e l’integrazione, aggirando i silos di dati. In questo modo, il “tessuto di dati” identifica e connette continuamente i dati da applicazioni disparate, scoprendo relazioni uniche e rilevanti per il business.
Infine, troviamo il Data Vault 2.0, l’evoluzione di livello successivo del Data Vault che nasce dal cloud.
Tutte queste tendenze hanno un denominatore comune: si basano sull’immenso potenziale del cloud per fornire risposte di qualità alle richieste di innovazione e flessibilità delle organizzazioni.
-
DataOps: l’AI ha preso il sopravvento
Il DataOps è un framework tecnologico ispirato alla metodologia DevOps, che sfrutta la tecnologia per automatizzare la consegna dei dati con sicurezza e offrire qualità e metadati ottimali migliorando in questo modo l’uso e il valore dei dati in un ambiente dinamico. Questo trend, già in ascesa negli anni passati, si sta ora evolvendo grazie all’Intelligenza Artificiale e al Machine Learning, a supporto degli ambienti iperautomatizzati. All’interno del DataOps e del suo design “verticale” di Data Governance, un ulteriore trend che sta guadagnando attenzione à la Metadata LakeHouse, un’architettura che permette ai metadati di diventare la scheda madre dell’intero ambiente di gestione dei dati di un’impresa.
-
Approccio completamente customer-centric e omnicanale
Negli anni, la strategia multicanale ha progressivamente lasciato il posto a un approccio omnicanale, che mette al centro il cliente per fornirgli un’esperienza di acquisto unica e omogenea ovunque si trovi. Tale approccio è ulteriormente abilitato dall’iperconnettività (cloud, 5G, IoT-Internet of Things).
Raccogliendo i dati dai diversi canali, si estraggono informazioni rilevanti sull’intero customer journey, che consentono di analizzare l’impatto di ogni touchpoint, ottimizzando i processi e migliorando l’offerta in base al feedback ricevuto. In questo modo, grazie all’analisi dei dati e all’automazione intelligente dei processi, le aziende possono offrire prodotti e servizi sempre più personalizzati. Questo approccio facilita l’alimentazione di modelli di Intelligenza Artificiale attivati in tempo reale – o addirittura in modo predittivo – riducendo così i tempi di latenza, il time-to-market e i costi associati.
-
A.T.A: dati come asset di trasformazione
I dati rappresentano un vantaggio aziendale nella misura in cui diventano un asset monetizzabile e differenziante. Da questo punto di vista, il D.A.T.A. (Data as A Transformational Asset), che rappresenta l’insieme di dati, algoritmi, pratiche e informazioni disponibili per un’azienda, è un patrimonio fondamentale. Calcolare il valore dei dati e ciò che racchiudono, comprendendo e sfruttando tutto il loro potere di trasformazione, risulta, infatti, oggi indispensabile per tratte un vantaggio competitivo reale.
TREND EMERGENTI
-
Cybersecurity Analytics, Blockchain e Privacy-Enhancing Computation
Nei nuovi modelli di cybersecurity emerge un approccio sempre più proattivo, basato sull’identità, che utilizza la raccolta dei dati e le capacità di analisi (Cybersecurity Analytics), per un rilevamento più rapido delle minacce e per pratiche di sicurezza manuali.
L’ambiente della cybersecurity è supportato anche dalla tecnologia Blockchain, che garantisce l’archiviazione dei dati attraverso la loro decentralizzazione e la cifratura delle informazioni. In questo contesto, aumenterà l’interesse anche per la Privacy-Enhancing Computation (PEC), un insieme di tecnologie che protegge i dati durante l’elaborazione, la condivisione, il trasferimento e l’analisi. Secondo Gartner, “entro il 2025, il 50% delle grandi organizzazioni adotterà questa tecnologia per aumentare la privacy dell’elaborazione dei dati in ambienti non fidati o in casi d’uso di analytics con più fonti di dati.
-
Self-Service 2.0 & Auto ML
Le aziende guardano con interesse ai modelli Self-Service 2.0 e Auto Machine Learning per accrescere le proprie capacità di estrazione di insight. Entrambe le tecnologie coprono gli aspetti analitici per tutti gli utenti e facilitano un approccio a 360 gradi: il Self Service 2.0 sta integrando e sfruttando le capacità analitiche dei modelli guidati dall’AI, mentre l’Auto ML utilizza l’aspetto visivo e di reporting per presentare i suoi algoritmi avanzati.
-
L’intelligenza artificiale quantistica guadagna terreno
La Quantum AI sfrutterà la superiorità di elaborazione del Quantum Computing per ottenere risultati irraggiungibili con le tecnologie di calcolo classiche. Permetterà l’elaborazione di grandi insiemi di dati, una risoluzione più agile di problemi complessi e una migliore modellazione e comprensione del business. Sono molti i benefici che queste tecniche offriranno dopo il passaggio dal mondo scientifico a quello del business. Nei prossimi decenni vedremo questa nuova tecnologica rimodellare il futuro dei mercati e delle industrie
-
L’imperativo di una AI responsabile e privata
La rivoluzione portata dal Quantum Computing unita all’AI comporta una grande responsabilità dal punto di vista della gestione etica dei dati. Per questo motivo, aziende e istituzioni devono definire la propria strategia di “AI for Good” in modo da ridurre al minimo il debito tecnico e impegnarsi in processi di ingegneria affidabili che sfruttino algoritmi trasparenti ed equi.
TREND IN LENTA EVOLUZIONE
-
Ecosistema del metaverso: abilitazione della realtà estesa
Il “metaverso”, una delle buzzword più diffuse negli ultimi mesi ma, in realtà, non rappresenta una semplice parola ma un ecosistema che faciliterà lo sfruttamento della cosiddetta Realtà Estesa portando con sé le tecnologie immersive e fondendo il mondo reale con quello virtuale: realtà aumentata (AR), virtuale (VR) e mista (MR). L’ascesa del metaverso influenzerà direttamente l’innovazione e la maturità dei dispositivi XR portando a ridurre i costi e accelerare l’intero ciclo tecnologico.
La previsione è che l’ecosistema del metaverso muoverà circa 800 miliardi di dollari entro il 2024 e 2,5 trilioni di dollari entro il 2030 (Bloomberg Intelligence).
10. AI generativa: un salto in avanti verso il contenuto generato automaticamente
L’intelligenza artificiale generalmente viene utilizzata per addestrare algoritmi basati su risultati preesistenti, ma può creare contenuti e innovare anche da sola. Uno degli sviluppi più promettenti nell’ambiente dell’AI nei prossimi anni è proprio l’AI generativa, che permette ai computer di riconoscere automaticamente i modelli sottostanti relativi alle informazioni di input e generare nuovi contenuti originali.
L’AI generativa impara la rappresentazione digitale di contenuti esistenti, come ad esempio dati di transazioni, testo, file audio o immagini, e la utilizza per generare nuovi prodotti originali e realistici che mantengono una somiglianza con i dati di addestramento. Le potenzialità di questa nuova AI sono enormi e potrà diventare un rapido motore di innovazione nello sviluppo di software, come anche nella produzione di nuovi prodotti farmaceutici, nell’analisi meteorologiche e nel rilevamento delle frodi.
In conclusione, se oggi le tecnologie di analisi avanzate che abbiamo a disposizione consentono di ottenere dai dati informazioni sempre più approfondite, in un futuro prossimo la sempre maggiore democratizzazione di tali tecnologie, lo sviluppo di innovazioni cloud-based e le nuove capacità di AI (Artificial Intelligence) traineranno un’ulteriore accelerazione del mercato e una sempre maggiore consapevolezza da parte delle aziende del loro aspetto centrale per supportare la trasformazione e la crescita del business.