Red Hat, leader mondiale nella fornitura di soluzioni open source, ha annunciato una collaborazione con Run:ai, specialista nell’ottimizzazione e nell’orchestrazione dell’AI, per portare le funzionalità di allocazione delle risorse di Run:ai su Red Hat OpenShift AI. Semplificando le operazioni AI e ottimizzando l’infrastruttura sottostante, questa collaborazione consente alle aziende di ottenere il massimo dalle risorse AI a disposizione, ottimizzando i flussi di lavoro sia hardware che dei team, su una piattaforma MLOps affidabile per la creazione, la messa a punto, la distribuzione e il monitoraggio di applicazioni e modelli abilitati all’AI su scala.
Le GPU sono i motori di calcolo che guidano i flussi di lavoro dell’AI, consentendone l’addestramento dei modelli, l’inferenza e la sperimentazione. L’utilizzo di questi processori specializzati, tuttavia, può comportare costi notevoli, soprattutto nel caso di compiti distribuiti di addestramento e inferenza. Red Hat e Run:ai stanno lavorando per soddisfare questa esigenza critica di ottimizzazione delle risorse GPU con Run:ai’s certified OpenShift Operator on Red Hat OpenShift AI, che aiuta gli utenti a scalare e ottimizzare i loro carichi di lavoro AI ovunque si trovino.
I benefici dell’integrazione di Run:ai in RedHat OpenShift AI
La piattaforma di orchestrazione di calcolo cloud-native di Run:ai su Red Hat OpenShift AI aiuta a:
- Risolvere problemi di pianificazione delle GPU per i carichi di lavoro AI con uno schedulatore dedicato per assegnare più facilmente le priorità ai carichi di lavoro mission-critical e consentire l’allocazione delle giuste risorse per supportare tali carichi di lavoro.
- Utilizzare GPU frazionali e capacità di monitoraggio per allocare dinamicamente le risorse in base alle priorità e alle policy preimpostate e aumentare l’efficienza dell’infrastruttura.
- Migliorare controllo e visibilità sull’infrastruttura di GPU condivisa per facilitare l’accesso e l’allocazione delle risorse tra i team IT, di data science e di sviluppo delle applicazioni.
L’operatore OpenShift certificato di Run:ai è già ora disponibile. In futuro, Red Hat e Run:ai intendono continuare a sviluppare questa collaborazione con ulteriori capacità di integrazione per Run:ai su Red Hat OpenShift AI, con l’obiettivo di supportare esperienze più fluide per i clienti e di accelerare ulteriormente il passaggio dei modelli AI nei flussi di lavoro di produzione con una coerenza ancora maggiore.
Dichiarazioni
Steven Huels, Vicepresidente e Direttore Generale della Business Unit AI, Red Hat, ha dichiarato: “La crescente adozione dell’AI e la domanda di GPU impone alle aziende di ottimizzare la propria piattaforma AI per ottenere il massimo dalle proprie operazioni e infrastrutture, indipendentemente dalla loro collocazione nel cloud ibrido. Grazie alla nostra collaborazione con Run:ai, stiamo consentendo alle organizzazioni di massimizzare i carichi di lavoro AI su scala senza sacrificare l’affidabilità di una piattaforma AI/ML o le risorse GPU preziose, ovunque sia necessario”.
Omri Geller, CEO e fondatore di Run:ai, ha aggiunto: “Siamo entusiasti di collaborare con Red Hat OpenShift AI per accrescere la potenza delle operation AI. Combinando i punti di forza MLOps di Red Hat OpenShift con l’esperienza di Run:ai nella gestione delle infrastrutture di intelligenza artificiale, stiamo innalzando gli standard dell’AI aziendale fornendo scalabilità continua e gestione ottimizzata delle risorse”.