Red Hat, leader globale nella fornitura di soluzioni open source, ha annunciato una serie di aggiornamenti a Red Hat AI, il suo portfolio di prodotti e servizi per accelerare lo sviluppo e l’implementazione di soluzioni AI nel cloud ibrido, che oggi fornisce una piattaforma di livello enterprise per l’addestramento e l’inferenza dei modelli più efficiente, semplice e flessibile da implementare ovunque in un ambiente di cloud ibrido.
Anche se le aziende cercano di ridurre i costi dell’implementazione di modelli linguistici di grandi dimensioni (LLM) su scala per affrontare un numero crescente di casi d’uso, devono ancora integrare i modelli con i dati proprietari specifici di ogni caso e allo stesso tempo essere in grado di accedere a questi dati ovunque siano presenti, in un data center, su cloud pubblici o all’edge.
Comprendendo sia Red Hat OpenShift AI che Red Hat Enterprise Linux AI (RHEL AI), Red Hat AI affronta queste problematiche fornendo una piattaforma AI enterprise che consente agli utenti di adottare modelli più efficienti e ottimizzati, regolati su dati specifici aziendali, e che possono essere distribuiti nel cloud ibrido sia per l’addestramento che per l’inferenza su un’ampia gamma di architetture di calcolo accelerate.
Red Hat OpenShift AI
OpenShift AI fornisce una piattaforma AI completa per la gestione dei cicli di vita dell’AI predittiva e generativa nel cloud ibrido, comprese funzionalità di machine learning operations (MLOps) e LLMOps. La piattaforma offre le funzionalità per la creazione di modelli predittivi e la messa a punto di modelli di AI generativa, oltre a strumenti per semplificarne la gestione, dalla scienza dei dati alle pipeline di modelli, dal monitoraggio alla governance e altro ancora.
Red Hat OpenShift AI 2.18, più recente release della piattaforma, aggiunge nuovi aggiornamenti e funzionalità per supportare l’obiettivo di Red Hat AI di portare modelli AI ottimizzati e più efficienti nel cloud ibrido. Le sue caratteristiche principali includono:
- Servizio distribuito: Fornito attraverso il server di inferenza vLLM, il servizio distribuito consente ai team IT di suddividere il servizio dei modelli su più unità di elaborazione grafica (GPU). In questo modo si riduce il carico su ogni singolo server, si velocizza l’addestramento e la messa a punto e si fa un uso più efficiente delle risorse di calcolo, contribuendo a distribuire i servizi tra i nodi per i modelli di intelligenza artificiale.
- Esperienza di messa a punto dei modelli end-to-end: Utilizzando InstructLab e le pipeline di data science di OpenShift AI, questa nuova funzionalità semplifica la messa a punto degli LLM, rendendoli più scalabili, efficienti e verificabili in ambienti di produzione di grandi dimensioni e garantendo al contempo la gestibilità attraverso la dashboard di Red Hat OpenShift AI.
- AI Guardrails: Red Hat OpenShift AI 2.18 contribuisce a migliorare l’accuratezza, le prestazioni, la latenza e la trasparenza dell’LLM grazie a una revisione tecnologica di AI Guardrails per monitorare e salvaguardare meglio sia le interazioni con l’input dell’utente che gli output del modello. AI Guardrails offre ulteriori punti di rilevamento per aiutare i team IT a identificare e mitigare contenuti inadeguati (odiosi, abusivi o blasfemi), informazioni di identificazione personale e sulla concorrenza o altri dati limitati dalle policy aziendali.
- Valutazione del modello: Utilizzando il componente di valutazione del modello linguistico (lm-eval) per fornire informazioni rilevanti sulla sua qualità complessiva, i data scientist possono confrontare le prestazioni dei loro LLM rispetto a una serie di compiti, dal ragionamento logico e matematico al linguaggio naturale avversario e altro ancora, contribuendo in ultima analisi a creare modelli di intelligenza artificiale più efficaci, reattivi e personalizzati.
RHEL AI
Parte del portfolio Red Hat AI, RHEL AI è una piattaforma di modelli di base per sviluppare, testare ed eseguire in modo più coerente gli LLM e alimentare le applicazioni enterprise. RHEL AI fornisce ai clienti LLM Granite e strumenti di allineamento dei modelli InstructLab, confezionati in un’immagine di server Red Hat Enterprise Linux avviabile e può essere distribuito nel cloud ibrido.
Lanciato nel febbraio 2025, RHEL 1.4 ha aggiunto diversi nuovi miglioramenti, tra cui:
- Supporto del modello Granite 3.1 8B, più recente novità della famiglia di modelli Granite con licenza open source. Il modello aggiunge il supporto multilingue per l’inferenza e la personalizzazione della tassonomia/conoscenza (anteprima per gli sviluppatori), oltre a una finestra di contesto da 128k per migliorare i risultati della sintesi e i compiti di Retrieval-Augmented Generation (RAG).
- Una nuova interfaccia grafica per competenze e contributi di conoscenza, disponibile in anteprima per gli sviluppatori, per semplificare ingestione e chunking dei dati e il modo in cui gli utenti aggiungono le proprie competenze e contributi a un modello di intelligenza artificiale.
- Document Knowledge-bench (DK-bench) per facilitare il confronto tra i modelli AI messi a punto su dati privati e rilevanti e le prestazioni degli stessi modelli di base non messi a punto.
Red Hat AI InstructLab su IBM Cloud
Le aziende sono sempre più alla ricerca di soluzioni AI che diano priorità all’accuratezza e alla sicurezza dei dati, mantenendo al contempo i costi e la complessità il più bassi possibile. Red Hat AI InstructLab, distribuito come servizio su IBM Cloud, è stato progettato per semplificare, scalare e migliorare l’impronta di sicurezza per l’addestramento e la distribuzione di modelli AI permettendo alle aziende di costruire modelli più efficienti e adatti alle loro esigenze specifiche e mantenere il controllo dei loro dati.
AI Foundations, formazione gratuita per i clienti Red Hat
L’AI è un’opportunità di trasformazione che sta ridefinendo il modo in cui le aziende operano e competono. Per supportare le organizzazioni in questo panorama dinamico, Red Hat mette gratuitamente a disposizione dei propri clienti i corsi di formazione online AI Foundations, che prevedono due percorsi di certificazione per l’apprendimento dell’AI, adatti sia ai leader più esperti che ai principianti, per aiutare utenti di tutti i livelli a capire come l’intelligenza artificiale possa aiutare a informare le operazioni aziendali, semplificare il processo decisionale e promuovere l’innovazione, oltre a come applicare queste conoscenze quando si utilizzano le soluzioni AI di Red Hat.
Disponibilità
Red Hat OpenShift AI 2.18 e Red Hat Enterprise Linux AI 1.4 sono già generalmente disponibili. Ulteriori informazioni su funzionalità aggiuntive, miglioramenti, correzioni di bug e sulle modalità di aggiornamento all’ultima versione di Red Hat OpenShift AI sono disponibili qui, mentre l’ultima versione di RHEL AI è disponibile qui.
Red Hat AI InstructLab su IBM Cloud sarà presto disponibile. I corsi AI Foundations di Red Hat sono già disponibili per i clienti.
Dichiarazioni
“Red Hat sa che, man mano che le aziende porteranno in produzione un maggior numero di casi d’uso eseguiti su scala, avranno bisogno di gestire i costi crescenti delle loro implementazioni di AI generativa”, spiega Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat. “Devono inoltre affrontare la sfida di integrare i modelli AI con i dati aziendali privati ed essere in grado di distribuire questi modelli ovunque si trovino i loro dati. Red Hat AI aiuta le aziende ad affrontare queste sfide, consentendo loro di utilizzare modelli più efficienti, costruiti ad hoc, addestrati sui dati, abilitando un’inferenza flessibile in ambienti on-premise, cloud ed edge“.