Red Hat, leader mondiale nella fornitura di soluzioni open source, ha avviato l’integrazione dei microservizi NVIDIA NIM su Red Hat OpenShift AI con l’obiettivo di ottimizzare l’inferenza di decine di modelli di intelligenza artificiale (AI) tramite il supporto di una piattaforma cloud ibrida AI/ML coerente e open source. L’integrazione di NVIDIA NIM – una serie di microservizi di inferenza di facile utilizzo inclusi nella piattaforma software NVIDIA AI Enterprise – consentirà alle organizzazioni di utilizzare Red Hat OpenShift AI per accelerare l’erogazione di applicazioni di AI generativa (Gen AI) e velocizzare il time to value.
Il supporto di NIM su Red Hat OpenShift AI si basa sull’ottimizzazione per NVIDIA AI Enterprise esistente sulle tecnologie cloud ibride aperte di Red Hat, fra cui Red Hat Enterprise Linux e Red Hat OpenShift. Tramite quest’ultima collaborazione, NVIDIA abiliterà l’interoperabilità di NIM con KServe, un progetto open source basato su Kubernetes per casi d’uso AI altamente scalabili e un collaboratore core upstream di Red Hat OpenShift AI, contribuendo ad alimentare l’interoperabilità continua dei microservizi NIM nelle future iterazioni di Red Hat OpenShift AI.
I vantaggi dell’integrazione di NVIDIA NIM
L’integrazione di NVIDIA NIM in Red Hat OpenShift AI consente alle aziende di aumentare la produttività sfruttando le capacità dell’AI generativa in ambiti come l’ottimizzazione del servizio clienti con assistenti virtuali, la riepilogazione dei casi per i ticket IT e l’accelerazione delle operazioni aziendali con copiloti domain-specific.
Utilizzando Red Hat OpenShift AI con NIM, le aziende possono beneficiare di:
- Un percorso di integrazione semplificato per distribuire NVIDIA NIM insieme ad altri deployment di AI in un workflow comune, con l’obiettivo di favorire maggiore coerenza e una gestione semplificata.
- Scalabilità e monitoraggio integrati per le implementazioni di NIM strettamente correlati ad altre implementazioni di modelli di AI in ambienti hybrid cloud.
- Sicurezza, supporto e stabilità di livello enterprise per garantire alle aziende che gestiscono il proprio business sull’AI una transizione fluida dal prototipo alla produzione.
I microservizi NVIDIA NIM sono progettati per accelerare l’implementazione dell’intelligenza artificiale nelle aziende. Grazie al supporto di un’ampia gamma di modelli di AI, compresi quelli della comunità open-source, quelli di NVIDIA AI Foundation e quelli personalizzati, NIM offre inferenze di AI scalabili e senza soluzione di continuità, sia on-premise che nel cloud, tramite interfacce di programmazione delle applicazioni (API) standard del settore.
Dichiarazioni
Chris Wright, Chief Technology Officer e Senior Vice President, Global Engineering, Red Hat, ha commentato: “Grazie alla collaborazione con NVIDIA, Red Hat vuole abbattere le barriere e le complessità legate alla rapida creazione, gestione e distribuzione di applicazioni abilitate dall’intelligenza artificiale generativa. Red Hat OpenShift AI fornisce una base scalabile e flessibile per estendere la portata dei microservizi NVIDIA NIM, consentendo agli sviluppatori di disporre di container pre-costruiti e API standard del settore, il tutto alimentato dall’innovazione open source”.
Justin Boitano, Vicepresidente dei prodotti aziendali di NVIDIA, ha aggiunto: “In ogni azienda, i team di sviluppo vogliono portare in produzione le proprie applicazioni di AI generativa nel modo più rapido e sicuro possibile. L’integrazione di NVIDIA NIM in Red Hat OpenShift AI segna una svolta cruciale nella nostra collaborazione, in quanto aiuterà gli sviluppatori a costruire e scalare rapidamente applicazioni aziendali innovative utilizzando fondamenta e modelli di embedding ottimizzati per le prestazioni in qualsiasi cloud o data center”.