Il Software-Defined Storage guida gli investimenti dei professionisti It in questo 2017.
A dirlo sono i risultati della sesta indagine annuale, pensata da DataCore per analizzare l’impatto delle grandi installazioni di storage guidato dal software realizzate nel mondo.
Realizzata tra la fine del 2016 e aprile 2017 su 426 professionisti It che stanno utilizzando o valutando il Software-Defined Storage e lo storage iper-convergente o cloud per vincere le sfide critiche nello storage dei dati, dall’indagine “State of Software-Defined Storage, Hyperconverged and Cloud Storage” emerge chiaro come il Software-Defined Storage si è posizionato al primo posto nella spesa It del 2017.
Ben il 16% degli intervistati ha, infatti, affermato che rappresenta tra l’11 e il 25 per cento del budget allocato per lo storage, mentre un ulteriore 13% del campione dichiara addirittura una quota superiore.
A sorpresa, tecnologie in auge, come lo storage OpenStack sarebbero, invece, previsti fondi limitati, con il 70% degli intervistati che l’ha definita “non applicabile”.
Perché piace il Software-Defined Storage
Interrogato su quali sono i motivi che portano all’implementazione del Software-Defined Storage, il campione ha evidenziato quanto segue:
- per semplificare la gestione di modelli di storage diversi (55)
- per rendere l’infrastruttura a prova di futuro (53%)
- per evitare gli obblighi imposti dai produttori di storage (52%)
- per allungare la vita utile degli asset di storage esistenti (47%)
Solo il 6% degli intervistati ha affermato di non prendere in considerazione il passaggio al software-defined storage.
Tra delusioni tecnologiche e false partenze
A una delle domande più interessanti – “Quale delusione o falsa partenza avete riscontrato nella vostra infrastruttura di storage?” – le prime tre risposte sono state:
- lo storage cloud non ha ridotto i costi (31%)
- la gestione dello storage a oggetti è difficile (29%)
- la flash non ha aumentato la velocità delle applicazioni (16%)
Degno di nota è anche il fatto che i due principali ambienti nei quali gli intervistati ritengono di dover affrontare le sfide più difficili in termini di prestazioni sono i database e le applicazioni enterprise (ERP, CRM e via dicendo). L’esigenza di database e analisi dei dati più veloci sta alla base delle tecnologie che ottimizzano le prestazioni e che sono in grado di dare risposte in tempo reale. Tutto questo è critico per raccogliere le indispensabili informazioni aziendali e per abilitare tecnologie come l’Internet of Thing. Per questo, molti ritengono che le attuali tecnologie progettate per accelerare le prestazioni e diminuire la latenza portino con sé anche significativi disservizi applicativi, maggiore complessità e costi più elevati.
Tra le altre evidenze emerse dalla sesta edizione dell’indagine annuale di DataCore ci sono:
- Un’occhiata allo stato attuale dell’infrastruttura iper-convergente, compresi numeri più bassi del previsto in termini di installazioni. La maggioranza degli intervistati ha dichiarato di non considerare per nulla l’iper-convergenza (33%) o di averla presa seriamente in considerazione ma di non averla ancora adottata (34%); il 20% ha detto di averla implementata con pochi nodi; il 7% di essere in fase di adozione avanzata; e solo il 6% dichiara di averla scelta come standard.
- Nonostante la tecnologia flash sia ormai ampiamente diffusa, solo un piccolo numero di intervistati sostiene di impiegarla per grandi capienze di storage. Circa il 60 per cento degli interpellati afferma di avere assegnato alla flash tra il 10% e il 20% della capienza totale.
- Guardando alle applicazioni ritenute pronte per un’infrastruttura cloud ibrida, le principali tipologie di applicazioni che gli utenti desiderano spostare su un’infrastruttura cloud pubblica o ibrida sono quelle enterprise (per esempio SalesForce) per il 33%; quelle per le analisi dei dati per il 22%; e i database per il 21%.