Per aiutare le aziende a semplificare l’adozione dell’intelligenza artificiale Hewlett Packard Enterprise ha annunciato nuove piattaforme e nuovi servizi su misura.
Partendo da un’importante area dell’AI, conosciuta come deep learning, che ispirata dal cervello umano viene tipicamente implementata per attività complesse quali il riconoscimento di immagini e volti, la classificazione di immagini e il riconoscimento vocale, HPE ha messo a punto un’infrastruttura di calcolo ad alte prestazioni.
Grazie a quest’ultima, le aziende possono creare e addestrare modelli di apprendimento capaci di gestire grandi volumi di dati per riconoscere i pattern presenti nell’audio, nelle immagini, nei video, nei testi e nei dati provenienti da sensori.
Di fronte a numerose aziende che non dispongono di tutti gli elementi necessari a implementare il deep learning, incluse competenze e risorse, infrastrutture hardware e software, capacità di integrazione necessarie per scalare i sistemi AI, HPE ha annunciato le seguenti proposte:
• HPE Rapid Software Development for AI: HPE ha introdotto una soluzione hardware e software integrata appositamente realizzata per le applicazioni di High Performance Computing e deep learning. Basata sul sistema HPE Apollo 6500 in collaborazione con Bright Computing per consentire il rapido sviluppo di applicazioni di deep learning, questa soluzione comprende framework software preconfigurati per il deep learning, librerie, aggiornamenti software automatici e gestione dei cluster ottimizzata per il deep learning. La soluzione supporta le GPU NVIDIA Tesla V100.
• HPE Deep Learning Cookbook: creato dal team AI Research di Hewlett Packard Labs, Deep Learning Cookbook è un set di strumenti che guidano il cliente nella scelta del miglior ambiente hardware e software per le diverse attività di deep learning. Questi tool aiutano le aziende a stimare le performance delle varie piattaforme hardware, caratterizzare i più diffusi framework dedicati al deep learning e scegliere gli stack hardware e software ideali per le proprie esigenze individuali. Deep Learning Cookbook può essere inoltre utilizzato per convalidare le performance e ottimizzare la configurazione degli stack hardware e software già acquistati. Una casistica di utilizzo presente nel Cookbook riguarda gli HPE Image Classification Reference Design. Questi reference design forniscono ai clienti configurazioni infrastrutturali ottimizzate per l’addestramento di modelli di classificazione delle immagini per vari fini, come la verifica delle targhe automobilistiche o la classificazione dei tessuti biologici. Questi design sono collaudati per garantirne le performance ed eliminare eventuali incertezze aiutando i data scientist e l’IT a essere più efficienti ed economicamente efficaci.
• HPE AI Innovation Center: ideati per progetti di ricerca a più lungo termine, questi centri per l’innovazione agiranno da piattaforma per la collaborazione sulla ricerca tra università, aziende operanti all’avanguardia nella ricerca sulla AI e ricercatori HPE. I centri, situati a Houston, Palo Alto e Grenoble, offriranno ai ricercatori di atenei e imprese l’accesso a infrastrutture e strumenti necessari per proseguire le iniziative di ricerca.
• HPE Center of Excellence (CoE) potenziati: studiati per assistere dipartimenti IT e data scientist che intendono accelerare le proprie applicazioni di deep learning e ricavare un ROI migliore dai deployment di deep learning nel breve termine, gli HPE CoE offrono a clienti selezionati l’accesso alle ultimissime tecnologie e competenze, comprese le più recenti GPU NVIDIA sui sistemi HPE. I CoE si trovano attualmente a Houston, Palo Alto, Tokyo, Bangalore e Grenoble.
Un’offerta su misura per ciascun cliente
Nell’ambito della propria mission finalizzata ad aiutare a concretizzare l’AI per i propri clienti, HPE propone servizi per il consumo flessibile dell’infrastruttura HPE in modo da evitare l’overprovisioning, aumentare i risparmi finanziari e scalare verso l’alto o verso il basso, secondo necessità, così da soddisfare i requisiti dei deployment di deep learning.