La quantità di dati che un’azienda acquisisce è incommensurabile e, per questo motivo, è indispensabile possedere degli strumenti che ne facilitino la gestione per poterne sfruttare il potenziale. Dynatrace, azienda specializzata nell’osservabilità e nella sicurezza unificate, ha annunciato OpenPipeline, una nuova tecnologia core che fornisce ai clienti un’unica pipeline per gestire l’acquisizione di dati su scala petabyte nella piattaforma Dynatrace per alimentare analisi, intelligenza artificiale e automazioni sicure e convenienti.
Dynatrace OpenPipeline offre ai team di sviluppo, di sicurezza e operation piena visibilità e controllo dei dati che stanno inserendo nella piattaforma Dynatrace, preservando il contesto dei dati e gli ecosistemi cloud da cui hanno origine. Inoltre, valuta i flussi di dati da cinque a dieci volte più velocemente rispetto alle tecnologie legacy. Ne deriva che le aziende possono gestire meglio il volume sempre crescente e la varietà di dati provenienti dai loro ambienti ibridi e multicloud e consentire a più team di accedere alle risposte e alle automazioni basate sull’intelligenza artificiale della piattaforma Dynatrace senza bisogno di strumenti aggiuntivi.
“I dati rappresentano la linfa vitale della nostra attività poiché contengono informazioni preziose e consentono un’automazione che libera i nostri team da compiti di basso valore”, ha affermato Alex Hibbitt, Engineering Director, SRE and Fulfillment, albelli-Photobox Group. “Tuttavia, dobbiamo affrontare sfide nella gestione delle nostre pipeline di dati in modo sicuro ed economicamente vantaggioso. L’aggiunta di OpenPipeline a Dynatrace estende il valore della piattaforma perché ci consente di gestire i dati provenienti da un ampio spettro di fonti insieme ai dati in tempo reale raccolti in modo nativo in Dynatrace. Avere tutto in un’unica piattaforma ci aiuta a prendere decisioni più informate”.
OpenPipeline aiuta a gestire i carichi di lavoro
Secondo Gartner, “i carichi di lavoro moderni generano volumi crescenti – centinaia di terabyte e persino petabyte ogni giorno – di dati di telemetria provenienti da una varietà di fonti. Questo grande flusso rischia di sopraffare gli operatori responsabili di risorse, prestazioni e sicurezza. Il costo e la complessità associati alla gestione di questi dati possono superare i 10 milioni di dollari all’anno nelle grandi aziende”.
Creare una pipeline unificata per gestire questi dati è impegnativo a causa della complessità delle moderne architetture cloud. La complessità e la proliferazione di strumenti di monitoraggio e analisi all’interno delle aziende possono mettere a dura prova i budget. Allo stesso tempo, le imprese devono conformarsi agli standard di sicurezza e privacy, come GDPR e HIPAA, in relazione alle pipeline di dati, all’analisi e alle automazioni. Nonostante queste sfide, le divisioni aziendali interessate sono alla ricerca di informazioni basate sui dati e sull’automazione per prendere decisioni corrette, migliorare la produttività e ridurre i costi. Pertanto, necessitano di visibilità e controllo chiari sulle informazioni, gestendo al tempo stesso i costi e massimizzando il valore delle soluzioni di analisi e automazione dei dati esistenti.
I vantaggi della nuova tecnologia Dynatrace
Dynatrace OpenPipeline funziona con altre principali tecnologie della piattaforma di Dynatrace, come: Grail Data Lakehouse, topologia Smartscape e Davis Hypermodal AI, funzionali per affrontare le nuove sfide offrendo i seguenti vantaggi:
- Analisi dei dati su scala petabyte: sfrutta algoritmi di elaborazione dei flussi in attesa di brevetto per ottenere un throughput di dati significativamente maggiore su scala petabyte.
- Data ingestion unificata: consente ai team di acquisire e gestire dati di osservabilità, sicurezza ed eventi aziendali, inclusa Quality of Service (QoS) dedicata per eventi aziendali, da qualsiasi fonte e in qualsiasi formato, come Dynatrace OneAgent, API Dynatrace e OpenTelemetry, con tempi di conservazione personalizzabili per casi d’uso individuali.
- Analisi dei dati in tempo reale in fase di acquisizione: consente ai team di convertire dati non strutturati in formati strutturati e utilizzabili al momento dell’acquisizione, ad esempio trasformando i dati grezzi in serie temporali o dati di metrica e creando eventi aziendali dalle linee di log.
- Contesto dei dati completo: arricchisce e conserva il contesto di punti dati eterogenei, inclusi parametri, trace, log, comportamento degli utenti, eventi aziendali, vulnerabilità, minacce, eventi del ciclo di vita e molti altri, riflettendo le diverse parti dell’ecosistema cloud da cui hanno avuto origine.
- Controlli per la privacy e la sicurezza dei dati: offre agli utenti il controllo su quali dati analizzare, archiviare o escludere dall’analisi e include controlli di sicurezza e privacy completamente personalizzabili, come il mascheramento dei dati personali automatico e basato sui ruoli, per aiutare a soddisfare le esigenze specifiche dei clienti e requisiti normativi.
- Gestione vantaggiosa dei dati: aiuta i team a evitare l’acquisizione di dati duplicati e riduce le esigenze di archiviazione trasformando i dati in formati utilizzabili, ad esempio da XML a JSON, e consentendo ai team di rimuovere campi non necessari senza perdere informazioni, contesto o flessibilità di analisi.
“OpenPipeline è una potente aggiunta alla piattaforma Dynatrace”, ha affermato Bernd Greifeneder, CTO di Dynatrace. “Arricchisce, converge e contestualizza dati eterogenei di osservabilità, sicurezza e business, fornendo analisi unificate per questi dati e i servizi che rappresentano. Come nel caso di Grail Data Lakehouse, abbiamo progettato OpenPipeline per analisi su scala petabyte. Opera con Davis hypermodal AI di Dynatrace per estrarre insights dai dati, alimentando analytics robusti e automazioni affidabili. Sulla base di test condotti internamente, riteniamo che OpenPipeline basato su Davis AI consentirà ai nostri clienti di valutare i flussi di dati da cinque a dieci volte più velocemente rispetto alle tecnologie legacy. Riteniamo, inoltre, che la convergenza e la contestualizzazione dei dati all’interno di Dynatrace semplifichi la conformità normativa e gli audit, permettendo allo stesso tempo a più team all’interno delle organizzazioni di ottenere visibilità immediata sulle prestazioni e sulla sicurezza dei loro servizi digitali”.
Dynatrace OpenPipeline sarà disponibile per tutti i clienti di Dynatrace SaaS entro 90, a partire dal supporto per log, metriche ed eventi aziendali. Seguirà poi il supporto per tipi di dati aggiuntivi.