È difficile immaginare l’economia senza i big data. Tuttavia, molte aziende sono consapevoli di essere ancora lontane dall’ottenere il massimo dalle informazioni disponibili. I motivi secondo Snowflake sono molteplici: alcune non dispongono degli strumenti giusti, altre non hanno il tempo necessario per sfruttare in modo concreto volumi di dati in costante crescita. Spesso, tuttavia, un’infrastruttura centrale, spesso prospettata come l’unico vero modo per trarre vantaggio dai dati, si rivela il principale ostacolo per un loro utilizzo efficace.
Perché un approccio decentralizzato non equivale a un silos
Molte aziende che operano a livello internazionale hanno una struttura organizzativa estremamente complessa. Quanto più grandi sono – con divisioni, fornitori e partner – tanto più complessa è la loro infrastruttura. Per evitare la formazione di silos e quindi un flusso stagnante di informazioni, cercano di integrare gli input di tutte le fonti di dati all’interno di una soluzione centralizzata.
Di fatto, però, questa strategia ha degli svantaggi: in un’infrastruttura IT organizzata centralmente spesso c’è un solo team che si occupa di gestire molteplici fonti di informazione da un lato e un numero crescente di utenti dall’altro con il compito di integrare tutti i flussi di dati in un archivio centrale. Tuttavia, poiché il team spesso non è sufficientemente informato sul contenuto e su chi utilizza i dati in quale contesto, ne risente sia l’agilità che la qualità dell’integrazione.
Una data mesh è diversa. A differenza di un’infrastruttura tradizionale centralizzata, offre un approccio decentralizzato alla gestione e alla fornitura scalabile di dati analitici. Di conseguenza, non c’è più un unico team che deve occuparsi di tutte le fonti di dati contemporaneamente. Al contrario, ne vengono impiegati diversi, ognuno dei quali è responsabile solo del proprio dominio di business. A seconda dell’organizzazione dell’azienda, può esserci un gruppo dati per ogni reparto. Allo stesso modo, vale la pena di integrare aree correlate come il marketing e le pubbliche relazioni in un unico dominio. È importante che ogni team abbia le competenze necessarie nella sua area specifica e sappia, ad esempio, quali dati sono particolarmente importanti per il dipartimento di comunicazione, quali analisi vengono effettuate regolarmente e in quale momento è necessario acquistare informazioni esterne per ottenere risultati migliori. Grazie a questo know-how tecnico, i singoli team di dati possono garantire in anticipo che i tipici colli di bottiglia siano evitati e che le informazioni utilizzate siano sempre disponibili nella migliore qualità.
I quattro pilastri della data mesh secondo Zhamak Deghani
Affinché una rete di dati sviluppi il suo pieno potenziale, sono necessari sia un cambiamento tecnologico che culturale, e questi due elementi devono andare di pari passo. Altrimenti, c’è il rischio che l’infrastruttura organizzata in modo decentralizzato crei nuovi silos di dati, che devono essere evitati a tutti i costi.
Zhamak Deghani, che ha fondato il concetto di data mesh nel 2018, ha definito quattro pilastri che le aziende dovrebbero seguire se vogliono passare definitivamente all’approccio decentralizzato. Uno di questi è il già citato orientamento al dominio che dà ai team che si occupano dei dati la possibilità di conoscere nel dettaglio le esigenze individuali della propria area e quindi di affrontarle meglio in fase di integrazione. Ciò contribuisce a migliorare in modo permanente l’agilità e la qualità dei dati.
Affinché le informazioni possano essere utilizzate da tutti i reparti, la deta mesh deve essere incentrata anche sulla loro consumabilità. A tal fine, i dati devono essere ben documentati, facili da reperire e qualitativamente adeguati alle esigenze degli utenti; in altre parole, il cosiddetto “prodotto dati” deve essere inteso alla lettera. Per garantire che soddisfi sempre questi requisiti, ha senso impiegare manager che misurino la soddisfazione degli utenti dei dati e, se necessario, intervengano per aumentarla. D’altra parte, è anche importante che la piattaforma utilizzata sia facile da usare. In fin dei conti, non tutti i dipendenti sono data scientist preparati. Le fondamenta di una data mesh dovrebbero quindi essere gettate da una piattaforma self-service intuitiva che offra strumenti uniformi in modo che ogni settore possa facilmente creare, mantenere e offrire i propri prodotti di dati.
Il quarto e ultimo pilastro definito da Zhamak Deghani consiste nella cosiddetta “governance federata”. Descrive un approccio in cui gli standard di governance e sicurezza vengono prima definiti a livello globale e poi implementati localmente nei singoli domini dove si possono utilizzare metodi come il controllo degli accessi o il mascheramento dei dati. Questa fase riguarda anche la regolamentazione della qualità e dell’interoperabilità uniforme per tutti i domini. Solo così si potrà garantire che rispettino determinati standard e che i prodotti di dati da essi creati possano essere utilizzati anche da altri. Affinché ciò funzioni, i formati dei dati e le API, ad esempio, devono essere definiti in modo uniforme. Ma anche le linee guida per specificare i metadati o i termini di uso comune svolgono un ruolo estremamente importante.
La data mesh può funzionare solo nel suo insieme
Soprattutto per le aziende con una struttura organizzativa molto complessa, una rete di dati può essere la scelta migliore, in quanto agilità e qualità risentirebbero di un’infrastruttura IT centralizzata. In queste condizioni, è infatti difficile consentire un utilizzo globale dei dati che soddisfi le esigenze di tutti gli utenti e sfrutti appieno gli insight che si nascondono nei volumi di dati disponibili.
Affinché la rete di dati funzioni nella pratica, tuttavia, non è sufficiente utilizzarla solo in determinate aree: comprenderlo è essenziale per le aziende che desiderano coglierne i vantaggi. Per sfruttare appieno il potenziale dell’approccio decentralizzato, è necessario che venga applicato in modo rigoroso in tutti i reparti. Infatti, solo quando tutti lavorano secondo standard uniformi si possono evitare i silos e i prodotti di dati utilizzati con profitto.