Se le applicazioni cloud ibride possono aiutare le imprese a raggiungere più efficacemente gli obiettivi aziendali mission critical, come l’accelerazione dei tempi di risposta e la disponibilità di un disaster recovery più efficiente, anche la replica continua dei dati critici può essere implementata con grande rapidità all’interno di una configurazione di cloud ibrido.
A ricordarlo ci pensa DataCore, attenta a sottolineare come, sempre di più, le iniziative di trasformazione digitale si allineano ai modelli di business esistenti, andando spesso da ambienti on-premise ad ambienti cloud per offrire un’esperienza cliente tempestiva e ottimale. Ovviamente alcune applicazioni devono affrontare ostacoli maggiori nello spostamento sul cloud. Tra i principali esempi di questi ostacoli ci sono latenza, connettività intermittente e necessità di normative.
Non a caso, un esempio di applicazione del software-defined storage che contribuirà significativamente alla crescita del cloud ibrido è la semplicità di accesso a dati e applicazioni business-critical che esso garantisce.
Secondo George Teixeira, Executive Chairman, DataCore Software: «Questa è la chiave per il disaster recovery, considerando che per un’impresa il costo medio per una singola ora di downtime è pari a 300.000 dollari statunitensi. In questo caso una soluzione cloud ibrida ottimale può fare la differenza tra uscire molto velocemente da una crisi a costi contenuti e compromettere la reputazione aziendale. Tuttavia, replicare le operazioni su un sito fisico remoto può rivelarsi difficile e costoso, per cui molte imprese per la loro strategia di disaster recovery stanno rivolgendosi al cloud».
Con gli utenti che sempre più valuteranno e implementeranno soluzioni basate sul cloud, vedremo una grande crescita delle tecnologie di cloud ibrido. Sarà fondamentale per le nuove generazioni delle soluzioni di cloud ibrido offrire una modalità coerente di gestione sia on-premise sia nel cloud. L’infrastruttura, ovunque sia collocata, deve diventare invisibile. I dati possono trovarsi ovunque, ma quello che conta saranno accessibilità e reattività adeguati alle aspettative dei clienti. Attraverso un set di soluzioni di cloud privato e pubblico, le organizzazioni potranno prendere serenamente decisioni tecnologiche in base alle esigenze aziendali, invece che decisioni aziendali in base alle complicazioni tecnologiche.
Le soluzioni software cloud sono ampiamente disponibili in posti come l’Azure Marketplace di Microsoft o quello di AWS. Nel 2017, per esempio, DataCore ha iniziato a offrire una serie di soluzioni di storage basate su cloud e iper-convergenti. E nel 2018 ne arriveranno altre. Gli utenti DataCore che hanno implementazioni on-premise di soluzioni di storage software-defined e iper-convergenti possono utilizzare DataCore Cloud Replication per sfruttare il cloud come luogo di replica aggiuntivo proteggendo i sistemi a elevata disponibilità e realizzando il disaster recovery. Questo rende molto più semplice per le imprese trarre vantaggio da scalabilità, agilità e convenienza del cloud per installare rapidamente un sito sicuro di replica remota, approfittando della gestione unificata dello storage tra l’infrastruttura on-premise e il cloud.
Software-defined e iper-convergenza diventano convergenza ibrida
In questo scenario, il software-defined è il veicolo della modernizzazione e il ponte per la trasformazione digitale che riunisce tecnologie vecchie e nuove colmando il divario tra le necessità di una complicata infrastruttura legacy e quelle di una moderna infrastruttura di storage “invisibile”.
Basti pensare che, per il solo mercato del software-defined storage, le previsioni a cura di IDC parlano di una crescita a un tasso del 13,5% dal 2017 al 2021, per un valore pari a 16,2 miliardi di dollari statunitensi. Secondo il report Predictions 2018 di Forrester, l’infrastruttura software-defined dovrebbe conquistare nel 2018 il predominio, tanto che la stessa società raccomanda di gestire i carichi di lavoro di produzione su piattaforme di elaborazione e su storage software-defined.
In questo scenario, la divisione tra iper-convergenza e software-defined storage sarà più sfumata, con la prima destinata a diventare un sotto-segmento in un modello completamente software-defined dove i clienti avranno la flessibilità di scegliere l’implementazione più adatta, sia essa su hardware fisico, macchine virtuali, appliance o cloud.
Sempre secondo DataCore, i due metodi continueranno a confondersi in più di un modello “ibrido-convergente” che è parte di un più ampio continuum di modernizzazione e convergenza dell’infrastruttura. Qui gli utenti potranno facilmente spostarsi tra diverse opzioni di implementazione, tutto sotto il controllo di un pannello di gestione unificato in grado di occuparsi sia dell’esistente infrastruttura legacy sia della nuova infrastruttura ibrido-convergente.
In tutto questo occorre, però, considerare che i team IT non possono più fare i conti con silo differenti per gestire le loro risorse ma di fronte a data center sempre più complessi avranno bisogno dell’aiuto di tecnologie come l’automazione e il machine learning.
La nuova generazione di software-defined storage, con la sua enfasi su analytics avrà il compito fondamentale di mettere sotto controllo la complessità, spezzando le catene per permettere una maggiore libertà di movimento, dal cloud privato al cloud multi-sito fino al cloud pubblico.