Red Hat, leader mondiale nella fornitura di soluzioni open-source, ha siglato una collaborazione con Lenovo per l’utilizzo di Red Hat Enterprise Linux AI (RHEL AI) sui server Lenovo ThinkSystem SR675 V3. Grazie a questo accordo, RHEL AI è stato abilitato a supportare i server SR675 V3 e sarà disponibile già pronto all’uso, in modo che i clienti possano sviluppare, testare ed eseguire con maggiore facilità modelli di intelligenza artificiale e generativa (Gen AI) su una piattaforma di modelli di base affidabile e fondata su un sistema operativo ottimizzato per l’AI.
Quando i server Lenovo incontrano il software di Red Hat, l’ottimizzazione dei flussi di lavoro è assicurata
Se da un lato la Gen AI rappresenta per le aziende un’opportunità significativa di accelerare l’innovazione, dall’altro i carichi di lavoro AI richiedono una combinazione di server ad alte prestazioni e software flessibile in grado di supportare le istanze di elaborazione e calcolo intensivo, semplificando al contempo formazione e messa a punto dei modelli di intelligenza artificiale. Abilitando i server Lenovo ThinkSystem SR675 V3 con la potenza di RHEL AI, Red Hat e Lenovo offrono prestazioni ottimizzate per l’AI computing grazie alla capacità di elaborazione delle GPU integrate, aiutando i clienti a implementare più rapidamente e senza problemi le operazioni di AI durante la fase di produzione.
Caratteristiche della piattaforma RHEL AI
RHEL AI è una piattaforma che integra la famiglia Granite di modelli linguistici di grandi dimensioni (LLM) con licenza open source di IBM Research e gli strumenti di allineamento di InstructLab per un approccio allo sviluppo guidato dalla community. La soluzione è contenuta in un’immagine ottimizzata e bootable di Red Hat Enterprise Linux che ne consente la portabilità in ambienti cloud ibridi ed è inclusa in Red Hat OpenShift AI, la piattaforma di machine learning operations (MLOps) in hybrid cloud di Red Hat, per l’esecuzione di modelli e InstructLab su scala in ambienti cluster distribuiti.
Lenovo Consulting Service offre un supporto completo per ottimizzare e implementare le soluzioni Red Hat. Questi servizi forniscono competenze in materia di distribuzione, integrazione e gestione, aiutando le aziende a migliorare le prestazioni e la scalabilità della loro infrastruttura IT, riducendo al contempo la complessità e i costi. Il team di esperti di Lenovo è a disposizione per fornire assistenza durante l’intero ciclo di vita della tecnologia.
Disponibilità di RHEL sui server Lenovo ThinkSystem SR675 v3
RHEL AI è ora disponibile e compatibile con i server Lenovo ThinkSystem SR675 v3. I clienti potranno testare la soluzione in prima persona presso l’AI Center of Excellence di Lenovo, dove i risultati vengono personalizzati per soddisfare le esigenze specifiche delle aziende clienti.
Dichiarazioni
“Per poter trarre il massimo vantaggio dalla rapida evoluzione dell’AI, le imprese hanno bisogno di maggiori livelli di flessibilità ed efficienza per identificare e implementare con successo le strategie di intelligenza artificiale”, afferma Joe Fernandes, Vicepresidente e General Manager, AI Business Unit, Red Hat. “Grazie alla nostra collaborazione con Lenovo, Red Hat semplifica la possibilità per i clienti di sfruttare l’opportunità offerta dell’intelligenza artificiale combinando la potenza di RHEL AI con i server leader di settore di Lenovo, aiutando i clienti a realizzare, distribuire ed eseguire carichi di lavoro AI dal datacenter al cloud e fino all’edge”.
“La nostra collaborazione con Red Hat rappresenta una spinta decisiva verso l’innovazione nel campo dell’intelligenza artificiale. Combinando l’hardware leader di Lenovo con il software all’avanguardia di Red Hat, stiamo offrendo soluzioni complete che consentono alle aziende di sfruttare appieno il potenziale di queste tecnologie trasformative”, conclude Brian Connors, VP e GM ESMB & AI Business Segment, Lenovo. “Grazie a Red Hat Enterprise Linux AI sui server ThinkSystem Lenovo AI enterprise, le aziende possono ottimizzare i loro flussi di lavoro AI ottenendo un time-to-value più rapido”.