In occasione della conferenza annuale THINK, IBM ha annunciato diversi nuovi aggiornamenti della propria piattaforma watsonx a un anno dall’annuncio, oltre a nuove funzionalità per i dati e l’automazione progettate per rendere l’intelligenza artificiale (AI) per le imprese più aperta, efficiente nei costi e flessibile. Durante il keynote di apertura, il CEO Arvind Krishna ha condiviso i piani dell’azienda per investire, sviluppare e contribuire nella community open-source dell’AI quale componente fondamentale della strategia di IBM.
“Crediamo fermamente nel portare l’open innovation nell’AI. Vogliamo utilizzare il potenziale dell’open source per fare con l’AI ciò che è stato fatto con successo con Linux e OpenShift”, ha dichiarato Krishna. “Open significa scelta. Open significa avere più occhi sul codice, più menti sui problemi e più mani sulle soluzioni. Per far sì che una tecnologia si diffonda velocemente e capillarmente, è necessario bilanciare tre obiettivi: concorrenza, innovazione e sicurezza. L’open source è un ottimo modo per raggiungerli tutti e tre”.
IBM ha rilasciato una famiglia di modelli Granite in open source e ha annunciato InstructLab, una funzionalità unica nel suo genere, in collaborazione con Red Hat
In linea con il proprio impegno verso l’ecosistema dell’AI open-source, IBM ha ora reso open-source una famiglia dei propri modelli di linguaggio e codice Granite tra le più avanzate e performanti. In questo modo, IBM invita le imprese, gli sviluppatori e gli esperti a livello globale a far leva sui punti di forza e a spingersi oltre i limiti che l’AI può raggiungere in ambito business.
Disponibili oggi con licenza Apache 2.0 su Hugging Face e GitHub, i modelli open-source di Granite si distinguono per processo di sviluppo, qualità, trasparenza ed efficienza. I modelli di codice Granite vanno da 3B a 34B parametri e sono disponibili sia nei modelli base sia nelle varianti che includono istruzioni adatte a svolgere compiti come la modernizzazione di applicazioni complesse, la generazione di codice, la correzione di bug, la spiegazione e la documentazione del codice, la manutenzione di repository e altro ancora. I modelli di codice, addestrati su 116 linguaggi di programmazione, raggiungono costantemente lo stato dell’arte tra gli LLM di codice open-source in vari compiti legati al codice:
· I test condotti da IBM hanno rilevato che i modelli di Granite Code mostrano complessivamente prestazioni molto elevate in tutte le dimensioni del modello e in tutti i benchmark, spesso superando altri modelli di codice open-source di dimensioni doppie rispetto a Granite.ii
· I test condotti da IBM su benchmark come HumanEvalPack, HumanEvalPlus e il reasoning benchmark GSM8K hanno dimostrato che i modelli di codice Granite hanno ottime prestazioni nella sintesi, correzione, spiegazione, modifica e traduzione del codice, nella maggior parte dei principali linguaggi di programmazione, tra cui Python, JavaScript, Java, Go, C++ e Rust.iii
· Il modello di codice base 20B parameter Granite è stato utilizzato per addestrare IBM watsonx Code Assistant (WCA) per i domini specializzati oggi disponibili. Inoltre, alimenta watsonx Code Assistant per Z, un prodotto progettato per aiutare le aziende a trasformare le applicazioni COBOL monolitiche in servizi ottimizzati per IBM Z.
· Il modello di codice base 20B parameter Granite è stato messo a punto per generare SQL da domande in linguaggio naturale allo scopo di trasformare dati strutturati ed estrarre informazioni da tali dati. IBM ha dimostrato di essere leader nel campo del linguaggio naturale per l’SQL, un importante caso d’uso del settore, come dimostrato dalla classifica indipendente di BIRD, che posiziona i modelli in base all’Execution Accuracy (EX) e al Valid Efficiency Score (VES).iv
IBM e Red Hat hanno anche annunciato di recente InstructLab, un approccio rivoluzionario per promuovere l’innovazione open-source intorno ai LLM.
La metodologia di InstructLab consente lo sviluppo continuo di modelli di base attraverso contributi incrementali costanti, proprio come lo sviluppo del software funziona da decenni nell’open source. Con InstructLab, gli sviluppatori possono costruire modelli specifici per i propri domini o settori di business con i propri dati, perché sia gli sviluppatori stessi sia i fornitori di modelli possano constatare il valore diretto dell’AI. IBM intende utilizzare questi contributi open-source per consentire alle imprese di avvantaggiarsi della loro integrazione con watsonx.ai e la nuova soluzione Red Hat Enterprise Linux AI (RHEL AI).
RHEL AI comprende una versione enterprise-ready di InstructLab, i modelli Granite open-source di IBM, e la piattaforma Linux enterprise leader al mondo per semplificare l’implementazione dell’AI in ambienti infrastrutturali ibridi.
IBM Consulting sta inoltre annunciando una practice per aiutare i clienti a utilizzare InstructLab con i propri dati proprietari per addestrare modelli di AI specifici per ogni scopo, che possono essere scalati per adattarsi meglio ai requisiti di costo e prestazioni delle esigenze aziendali.
IBM presenta una nuova classe di assistenti watsonx
Questa nuova ondata di innovazione dell’AI ha il potenziale per sbloccare una stima di 4.000 miliardi di dollari di benefici economici annuali in tutti i settori. Tuttavia, l’annuale Global AI Adoption Index di IBM ha recentemente rilevato che, mentre il 42% delle aziende di dimensioni enterprise (> 1.000 dipendenti) intervistate ha introdotto l’AI nelle proprie attività, un altro 40% delle aziende che stanno esplorando o sperimentando l’AI deve ancora implementare i propri modelli. Il 2024 sarà per le imprese l’anno del superamento delle barriere all’ingresso, come il divario di competenze, la complessità dei dati e, forse più importante, la fiducia.
Per fronteggiare queste sfide, IBM sta annunciando diversi aggiornamenti e miglioramenti alla propria famiglia di assistenti watsonx, oltre a una funzionalità in arrivo in watsonx Orchestrate per aiutare le imprese a creare i propri assistenti AI in tutti i settori.
I nuovi assistenti AI includono watsonx Code Assistant for Enterprise Java Applications (disponibilità prevista per ottobre 2024), watsonx Assistant for Z per trasformare il modo in cui gli utenti interagiscono con il sistema per trasferire rapidamente conoscenze e competenze (disponibilità prevista per giugno 2024) e un’espansione di watsonx Code Assistant for Z Service con spiegazione del codice per aiutare le imprese a comprendere e documentare le applicazioni attraverso il linguaggio naturale (disponibilità prevista per giugno 2024). Ulteriori informazioni su watsonx Code Assistant for Enterprise Java Applications, watsonx Assistant for Z e watsonx Code Assistant for Z.
IBM sta ampliando la propria offerta di GPU NVIDIA per offrire ora GPU NVIDIA L40S e NVIDIA L4 Tensor Core, oltre al supporto di Red Hat Enterprise Linux AI (RHEL AI) e OpenShift AI per aiutare le imprese e gli sviluppatori a soddisfare le esigenze dell’AI e di altri workload mission-critical. Inoltre, per accelerare il time to value dell’AI dei clienti, IBM sta utilizzando architetture distribuibili per watsonx che consentono di integrare l’AI in modo rapido, fornendo al contempo funzionalità di sicurezza e conformità per proteggere i loro dati e gestire i relativi controlli.
Inoltre, IBM ha presentato nuovi prodotti e funzionalità per i dati alimentati dall’AI generativa, per migliorare il modo in cui le organizzazioni osservano, ottimizzano e governano i dati per l’AI.
IBM presenta in anteprima la nuova strategia e le nuove funzionalità per l’automazione basate sull’AI
Il cloud ibrido e l’intelligenza artificiale stanno trasformando il modo in cui le aziende operano. Oggi un’azienda media gestisce ambienti cloud diversi – pubblici e privati – e circa 1000 app1, ognuna con molteplici dipendenze, oltre a diversi petabyte di dati. Con l’AI generativa, che si prevede porterà fino a 1 miliardo di app entro il 20282, l’automazione non è più un’opzione ma è il modo in cui le aziende potranno risparmiare tempo, risolvere i problemi e prendere decisioni più velocemente.
IBM affronta queste sfide offrendo una serie di funzionalità di automazione basate sull’AI che consentiranno ai CIO di passare dalla gestione proattiva degli ambienti IT all’automazione predittiva basata sull’AI, che diventerà uno strumento essenziale per migliorare velocità, prestazioni, scalabilità, sicurezza ed efficienza dei costi dell’infrastruttura aziendale.
Oggi il portafoglio di soluzioni IBM per l’automazione, il networking, i dati, le applicazioni e la gestione dell’infrastruttura aiuta ad operare in ambienti IT sempre più complessi. Per la gestione delle attività tecnologiche, Apptio consente alle organizzazioni di prendere decisioni informate e basate sui dati relativi ai propri investimenti, fornendo chiarezza sulle spese IT e sul modo in cui le stesse generano valore per il business, consentendo di rispondere rapidamente alle mutevoli condizioni di mercato. I clienti possono inoltre combinare Apptio con la potenza di Instana per l’osservabilità automatizzata e Turbonomic per l’ottimizzazione delle prestazioni, con l’obiettivo di aiutare le imprese ad allocare in modo efficiente le risorse e a controllare la spesa IT attraverso una maggiore visibilità e approfondimenti in tempo reale. In questo modo diventa possibile dedicare più tempo all’implementazione e alla scalabilità dell’AI per promuovere nuove iniziative di innovazione.
IBM ha recentemente annunciato l’intenzione di acquisire HashiCorp, azienda leader nell’automazione di ambienti multi cloud e ibridi attraverso le soluzioni Infrastructure Lifecycle Management e Security Lifecycle Management con prodotti come Terraform, Vault e altri. Con HashiCorp le imprese possono passare e operare facilmente in ambienti multi-cloud e hybrid cloud.
IBM prosegue l’evoluzione del proprio portafoglio di automazione presentando in anteprima, in occasione di THINK, un nuovo strumento generativo alimentato dall’intelligenza artificiale denominato IBM Concert, che sarà disponibile da giugno 2024. IBM Concert rappresenterà il “centro nevralgico” della tecnologia e delle attività di un’azienda.
Alimentato dall’AI di watsonx, IBM Concert fornirà approfondimenti generativi guidati dall’AI su tutti i portafogli di applicazioni dei clienti per identificare, prevedere e suggerire soluzioni ai problemi. Il nuovo tool si integra nei sistemi aziendali esistenti, utilizzando l’intelligenza artificiale generativa per connettersi con i dati provenienti dall’infrastruttura cloud, dai repository dei sorgenti, dalle pipeline CI/CD e da altre soluzioni di gestione delle applicazioni per creare una visione dettagliata delle applicazioni collegate.
IBM Concert permette alle imprese di eliminare le attività superflue e di accelerarne altre ed è progettato per contribuire alla distribuzione delle informazioni, in modo che i team di lavoro possano essere veloci e reattivi nell’affrontare e risolvere le complessità, prima che si trasformino in problemi. Inizialmente IBM Concert si focalizzerà sull’aiutare i proprietari delle applicazioni, gli SRE e i leader IT ad acquisire informazioni, a prevenire e ad affrontare più rapidamente i problemi legati alla gestione del rischio e della conformità.
IBM amplia l’accesso dell’ecosistema a watsonx aggiungendo modelli di terze parti
IBM rende sempre più centrale l’ecosistema dei partner per offrire ai clienti scelta e flessibilità, portando i modelli di terze parti su watsonx, permettendo alle principali aziende di software di incorporare le funzionalità di watsonx nella loro tecnologia e offrendo le competenze di IBM Consulting per la trasformazione aziendale. IBM Consulting ha rapidamente ampliato le proprie competenze in materia di AI generativa, con oltre 50.000 professionisti certificati nelle tecnologie IBM e dei partner strategici. L’intero ecosistema di partner di ogni dimensione sta aiutando le aziende ad adottare e rendere scalabile l’AI in funzione delle proprie necessità.
· AWS: IBM e AWS collaborano per unire Amazon SageMaker e watsonx.governance su AWS. Disponibile da subito, la soluzione fornirà ai clienti di Amazon SageMaker funzionalità avanzate di governance dell’AI per i modelli di apprendimento automatico predittivo e di AI generativa. I clienti possono ora governare, monitorare e gestire i loro modelli su tutte le piattaforme, semplificando i processi di gestione del rischio e di conformità per le loro operazioni di AI.
· Adobe: IBM e Adobe stanno collaborando sul cloud ibrido e sull’AI, portando Red Hat OpenShift e watsonx sulla Adobe Experience Platform ed esplorando la possibilità di rendere watsonx.ai e Adobe Acrobat AI Assistant disponibili on-premise e nel cloud privato. IBM sta inoltre rafforzando l’area della consulenza per accelerare l’adozione di Adobe Express da parte dei clienti. Le nuove funzionalità sono disponibili nella seconda metà del 2024.
· Meta: IBM ha annunciato la disponibilità di Meta Llama 3 – la nuova generazione del modello linguistico aperto e su larga scala di Meta – su watsonx per aiutare le organizzazioni a innovare il percorso di intelligenza artificiale. L’aggiunta di Llama 3 si basa sulla collaborazione tra IBM e Meta per promuovere l’innovazione aperta per l’AI. Le due aziende hanno annunciato alla fine dello scorso anno l’AI Alliance, un gruppo di organizzazioni leader dell’industria, delle startup, del mondo accademico, della ricerca e delle istituzioni, che da allora è cresciuto fino a contare più di 100 partecipanti tra membri e collaboratori.
· Microsoft: IBM annuncia che la piattaforma di AI e dati watsonx è supportata da IBM per l’utilizzo su Microsoft Azure e disponibile per l’acquisto attraverso IBM e l’ecosistema di business partner come soluzione gestita dal cliente su Azure Red Hat OpenShift (ARO).
· Mistral: IBM annuncia l’intenzione di dare vita a una nuova partnership strategica con Mistral AI per portare i modelli più recenti sviluppati sulla piattaforma watsonx, compreso il leader Mistral Large, che dovrebbe essere disponibile nel secondo trimestre del 2024. IBM intende collaborare con Mistral AI per favorire l’open innovation, facendo leva sul rispettivo impegno all’interno della comunità open-source.
· Palo Alto Networks: IBM ha ampliato la partnership con Palo Alto per offrire congiuntamente offerte di sicurezza basate sull’intelligenza artificiale e diverse iniziative volte a migliorare i risultati della sicurezza per i clienti. Per saperne di più, è disponibile il comunicato stampa completo.
· Salesforce: IBM e Salesforce stanno valutando la possibilità di rendere disponibile la serie di modelli IBM Granite entro la fine dell’anno per l’utilizzo della piattaforma Salesforce Einstein 1, con l’obiettivo di fornire ai clienti l’accesso a un maggior numero di modelli per migliorare il processo decisionale nei casi di utilizzo del CRM basato sull’AI.
· SAP: IBM Consulting e SAP stanno inoltre collaborando per supportare un sempre maggior numero di imprese ad accelerare il percorso nel cloud utilizzando RISE con SAP, per conseguire vantaggi trasformativi dell’AI generativa in questo ambito. Ciò mira ad ampliare la collaborazione tra IBM e SAP per l’integrazione della tecnologia IBM Watson AI nelle soluzioni SAP. In questo contesto, si prevede che la serie IBM Granite Model sarà accessibile attraverso l’intero portafoglio di soluzioni e applicazioni cloud di SAP, che si basa sull’hub AI generativa di SAP AI Core.
· SDAIA: IBM ha annunciato il modello arabo “ALLaM” della Saudi Data and Artificial Intelligence Authority (SDAIA) su watsonx, aggiungendo nuove funzionalità linguistiche alla piattaforma, tra cui la capacità di comprendere diversi dialetti arabi.
Note
i IBM. “Granite Code Models: A Family of Open Foundation Models for Code Intelligence”
ii IBM. “Granite Code Models: A Family of Open Foundation Models for Code Intelligence”
iii IBM. “Granite Code Models: A Family of Open Foundation Models for Code Intelligence”
iv Per i carichi di lavoro aziendali incentrati sui dati, la generazione di SQL da domande in linguaggio naturale è uno dei compiti più importanti e impegnativi per la generazione di codice. Il 14 maggio 2024, i modelli basati su IBM Granite hanno ottenuto i migliori punteggi di accuratezza ed efficienza nella classifica BIRD (BIg Bench for LaRge-scale Database Grounded Text-to-SQL Evaluation) per la generazione da testo a SQL, dimostrando la leadership di IBM in questo caso d’uso aziendale critico.
iv McKinsey. “The Economic Potential of Generative AI.” iv Salesforce. “Third Edition State of IT Report.”
iv IDC: Gary Chen, Jim Mercer. “1 Billion New Logical Applications: More Background.”