Il più grande computer single-memory del mondo è firmato Hpe e rientra nel progetto di ricerca The Machine, un’iniziativa di ricerca e sviluppo che punta a realizzare un nuovo paradigma denominato Memory-Driven Computing, un’architettura appositamente creata per l’era dei Big Data.
“I segreti della prossima grande scoperta scientifica, innovazioni rivoluzionarie o tecnologie capaci di cambiarci la vita, si nascondono in piena vista dietro le montagne di dati che creiamo ogni giorno – ha dichiarato Meg Whitman, CEO di Hewlett Packard Enterprise -. Per concretizzare questa promessa non possiamo affidarci alle tecnologie del passato, bensì abbiamo bisogno di un computer costruito per l’era dei Big Data”.
Il prototipo presentato di recente dispone di 160 terabyte (TB) di memoria, sufficienti per lavorare simultaneamente con otto volte i dati contenuti in tutti i volumi conservati presso la Libreria del Congresso statunitense, ovvero circa 160 milioni di libri. Finora non era mai stato possibile memorizzare e manipolare data set di queste dimensioni all’interno di un sistema single-memory.
Scalabilità e implicazioni sociali
Sulla base del prototipo attuale, HPE prevede che l’architettura possa facilmente scalare fino a sistemi single-memory di scala exabyte e, andando oltre, fino a un pool di memoria pressoché infinito – 4.096 yottabyte. Per dare un riferimento, si tratta di 1.000 volte l’intero universo digitale odierno.
Con una tale quantità di memoria sarà possibile lavorare simultaneamente con tutte le cartelle cliniche digitali di ogni persona sulla Terra; ogni dato presente all’interno di Facebook; ogni spostamento dei veicoli a guida autonoma di Google; e ogni data set prodotto dalle esplorazioni spaziali – e tutto nello stesso momento, ottenendo risposte e scoprendo nuove opportunità a velocità finora impensate.
“Siamo convinti che il Memory-Driven Computing sia la soluzione per far progredire il settore in modo da consentire passi avanti in tutti gli aspetti della società – ha commentato Mark Potter, CTO di HPE e Director, Hewlett Packard Labs -. L’architettura che abbiamo presentato può essere applicata a qualsiasi categoria informatica, dai dispositivi edge intelligenti fino ai supercomputer”.
Il Memory-Driven Computing mette al centro dell’architettura informatica la memoria, non il processore. Eliminando le inefficienze dell’attuale modo in cui memoria, storage e processori interagiscono oggi tra loro, il Memory-Driven Computing riduce il tempo necessario a risolvere problemi complessi da giorni a ore, da ore a minuti, da minuti a secondi, per produrre intelligence in tempo reale.
Specifiche tecniche
Il nuovo prototipo fa leva sui risultati ottenuti dal progetto di ricerca The Machine come:
• 160 TB di memoria condivisa distribuita tra 40 nodi fisici interconnessi mediante protocollo in fibra ad alte prestazioni
• Un sistema operativo ottimizzato basato su Linux che gira su ThunderX2, un dual socket di seconda generazione prodotto da Cavium, in grado di gestire System on a Chip (SoC) ottimizzati per carichi di lavoro ARMv8-A
• Link di comunicazione ottici/fotonici, compreso il nuovo modulo fotonico X1, online e operativi;
• Tool di programmazione software progettati per sfruttare l’abbondante memoria persistente disponibile.