Red Hat, fornitore di soluzioni open source, ha reso disponibile Red Hat Enterprise Linux (RHEL) AI in ambiente hybrid cloud. RHEL AI è la piattaforma di modello di Red Hat che consente agli utenti di sviluppare, testare ed eseguire modelli di intelligenza artificiale generativa (gen AI) in modo più fluido per alimentare le loro applicazioni aziendali. La piattaforma combina la famiglia di modelli linguistici di grandi dimensioni (LLM) Granite, rilasciati con licenza open source, con gli strumenti di allineamento dei modelli InstructLab basati su metodologia LAB (Large-scale Alignment for chatBots). Il tutto è confezionato come un’immagine RHEL ottimizzata e avviabile, pronta per essere implementata su singoli server nel cloud ibrido.
Nonostante l’enorme potenziale della gen AI, i costi per approvvigionamento, addestramento e messa a punto degli LLM possono essere astronomici, arrivando a sfiorare i 200 milioni di dollari per alcuni modelli avanzati già prima del lancio. Ciò non include il costo dell’allineamento ai requisiti o ai dati specifici di una determinata organizzazione, che in genere richiede data scientist o sviluppatori altamente specializzati. Indipendentemente dal modello selezionato per una determinata applicazione, l’allineamento ai dati e ai processi specifici dell’azienda è comunque necessario, rendendo l’efficienza e l’agilità fondamentali per l’AI negli ambienti di produzione reali.
Red Hat ritiene che nel prossimo decennio, modelli di intelligenza artificiale più piccoli, più efficienti e creati per obiettivi specifici costituiranno una parte sostanziale dello stack IT aziendale, insieme alle applicazioni cloud-native. Ma per raggiungere questo obiettivo, la gen AI deve essere più accessibile e disponibile, sia in termini di costi che di contributori e ambienti cloud ibridi in cui può essere implementata. Per decenni, le community open source hanno contribuito a risolvere sfide simili per complessi problemi software attraverso i contributi di diversi gruppi di utenti; un approccio simile può ridurre gli ostacoli all’adozione efficace della gen AI.
Joe Fernandes, vicepresidente e direttore generale, Foundation Model Platforms, Red Hat, ha dichiarato: “Affinché le applicazioni gen AI abbiano veramente successo in azienda, devono essere rese più accessibili a un insieme più ampio di organizzazioni e utenti oltre che maggiormente applicabili a casi d’uso aziendali specifici. RHEL AI offre agli esperti di dominio, non solo ai data scientist, la possibilità di contribuire a un modello gen AI creato appositamente per il cloud ibrido, consentendo al contempo alle organizzazioni IT di scalare questi modelli per la produzione tramite Red Hat OpenShift AI”.
“I vantaggi dell’intelligenza artificiale in ambito enterprise derivano dalla vastità del panorama dei modelli di intelligenza artificiale e dalle complessità intrinseche della selezione, della messa a punto e della manutenzione dei modelli interni” ha aggiunto Jim Mercer, vicepresidente del programma, sviluppo software, DevOps e DevSecOps, IDC. “Modelli più piccoli, creati per uno scopo specifico e più ampiamente accessibili possono rendere le strategie di intelligenza artificiale più realizzabili per un insieme molto più ampio di utenti e organizzazioni, che è l’area a cui Red Hat si rivolge con RHEL AI come piattaforma di modelli di base”.
Un approccio open source alla gen AI
Queste sono le sfide che RHEL AI intende affrontare: rendere la Gen AI più accessibile, più efficiente e più flessibile per i CIO e le organizzazioni IT aziendali nel cloud ibrido. RHEL AI aiuta a:
· Potenziare l’innovazione gen AI con modelli Granite di livello aziendale con licenza open source e allineati a un’ampia varietà di casi d’uso Gen AI.
· Semplificare l’allineamento dei modelli gen AI ai requisiti aziendali. Grazie agli strumenti InstructLab, esperti di dominio e sviluppatori possono contribuire alla creazione di modelli Gen AI con le loro competenze uniche, anche senza una profonda conoscenza della data science.
· Addestrare e implementare gen AI ovunque nel cloud ibrido fornendo tutti gli strumenti necessari per mettere a punto e implementare modelli per server di produzione ovunque risiedano i dati associati. RHEL AI si integra perfettamente con Red Hat OpenShift AI, offrendo una soluzione scalabile per l’addestramento, la messa a punto e la gestione di questi modelli sulla base degli stessi strumenti e concetti.
Oltre a queste funzionalità, RHEL AI beneficia dei vantaggi di un abbonamento Red Hat, che include distribuzione affidabile di prodotti aziendali, supporto di produzione 24 ore su 24, 7 giorni su 7, supporto esteso del ciclo di vita del modello e indennizzo della proprietà intellettuale del modello, insieme alle protezioni legali di Open Source Assurance.
RHEL AI si estende al cloud ibrido
Avvicinare una piattaforma solida, in grado di gestire modelli di intelligenza artificiale pre-addestrati (modelli di base), ai dati aziendali è fondamentale per realizzare strategie di IA efficaci in ambienti di produzione. Come estensione del portfolio di cloud ibrido di Red Hat, RHEL AI abbraccerà quasi tutti gli ambienti aziendali, dai data center locali agli ambienti edge al cloud pubblico. Questa flessibilità si traduce in una vasta gamma di opzioni di accesso a RHEL AI: direttamente da Red Hat, tramite i suoi partner OEM oppure implementandolo sulle piattaforme dei principali provider cloud come AWS, GCP, IBM Cloud e Microsoft Azure. Ciò consente agli sviluppatori e alle organizzazioni IT di utilizzare la potenza delle risorse di calcolo degli hyperscaler per creare soluzioni di intelligenza artificiale innovative con RHEL AI.
Hillery Hunter, CTO e direttore generale dell’innovazione, IBM Infrastructure, ha dichiarato: “IBM si impegna ad aiutare le aziende a creare e implementare modelli di intelligenza artificiale efficaci e a scalare con velocità. RHEL AI su IBM Cloud sta portando l’innovazione open source in prima linea nell’adozione della gen AI, consentendo a più organizzazioni e individui di accedere, scalare e sfruttare la potenza dell’AI. Con RHEL AI che riunisce la potenza di InstructLab e la famiglia di modelli Granite di IBM, stiamo creando modelli Gen AI che aiuteranno i clienti a generare un impatto reale sul business in tutta l’azienda”.
Disponibilità
RHEL AI è già disponibile tramite il Portale Clienti Red Hat per l’esecuzione on-premise o per l’upload su AWS e IBM Cloud come offerta “bring your own subscription” (BYOS), ovvero con la propria sottoscrizione. La disponibilità di un’offerta BYOS su Azure e GCP è prevista per il quarto trimestre del 2024, mentre RHEL AI dovrebbe essere disponibile come servizio su IBM Cloud entro quest’anno.
Red Hat prevede di ampliare ulteriormente la rosa di partner cloud e OEM di RHEL AI nei prossimi mesi, offrendo ancora più scelta tra gli ambienti cloud ibridi.