In ambito tecnologico, l’AI generativa (GenAI) è stato il tema più gettonato del 2023. Stimolate dal successo di ChatGPT, aziende del calibro di Amazon, Microsoft e Google hanno accelerato i propri sforzi, dando luogo a un’ondata di innovazione destinata a rimodellare il modo in cui aziende e utenti sfruttano la potenza della tecnologia per aumentare la produttività. A oggi, l’adozione ha già fatto passi da gigante in vari settori, come quello farmaceutico e legale, ma ciò che si è osservato finora rappresenta solo l’inizio. Il vero potenziale della GenAI diventerà chiaro solo quando le aziende usciranno dalla fase sperimentale e inizieranno a utilizzarla in modo più capillare in produzione.
Per sfruttare questo fenomeno, piuttosto che farsi trascinare da esso, è necessario superare alcune sfide fondamentali legate a costi e fiducia.
I costi e la fiducia sono i maggiori ostacoli
Quando si parla di GenAI, si applica la classica formula informatica “garbage in, garbage out”: non ci si può aspettare di generare risultati utili se il modello viene addestrato su dati non affidabili. La sfida consiste nel fatto che governance e sicurezza dei dati sono ancora in una fase embrionale in molte imprese, con informazioni cruciali spesso bloccate in silos che le rendono di fatto inutilizzabili senza una costosa integrazione. In pratica, questo significa che i dati di addestramento dell’AI possono essere di bassa qualità e privi di un contesto aziendale cruciale, il che può portare ad allucinazioni (informazioni fittizie che sembrano realistiche) o a risposte concrete che mancano del contesto necessario. In entrambi i casi, il valore aggiunto per l’azienda è nullo.
Un altro punto critico è il costo elevato dei progetti GenAI in-house. Se da un lato l’outsourcing comporta rischi potenziali in termini di sicurezza e conformità, dall’altro fare tutto internamente può avere un costo spropositato. Una singola GPU all’avanguardia, progettata specificamente per l’esecuzione di modelli linguistici di grandi dimensioni (LLM), costa circa 30.000 dollari. Un’organizzazione che voglia eseguire l’addestramento di un modello con 175 miliardi di parametri, ad esempio, potrebbe aver bisogno di 2.000 GPU. Si tratta di un budget considerevole, dell’ordine di decine di milioni di dollari.
Portare la GenAI dal laboratorio alla produzione
Per questo motivo, l’infrastruttura cloud sta diventando sempre più popolare come fondamento per l’AI. I fornitori di cloud dispongono delle GPU necessarie per consentire ai clienti di scalare i loro progetti GenAI pagando solo la capacità che utilizzano. In questo modo le aziende possono sfruttare la GenAI e disattivare il dispositivo una volta terminata l’attività invece di dover prevedere delle GPU on-premise. In questo modo si risparmia sul CapEx e si ottiene la flessibilità necessaria per riportare le operazioni in-house in futuro, se necessario.
Una volta deciso di implementare il cloud, come possono le organizzazioni far funzionare i progetti GenAI fuori dal laboratorio e fornire valore in ambienti di produzione? Il modello BRIESO (Build, Refine, Identify, Experiment, Scale and Optimise) si rivela molto istruttivo in questo contesto.
Build: In primo luogo, occorre creare una moderna architettura e una rete di dati aziendali universale. Che sia on-premise o nel cloud, questo consentirà alla propria azienda di ottenere visibilità e controllo sui propri dati. Inoltre, contribuirà a creare uno schema ontologico unificato per la mappatura, la protezione e la conformità di tutti i silos di dati. Si devono cercare strumenti che non solo soddisfino la domanda attuale, ma che abbiano la scalabilità necessaria per rispondere positivamente alla crescita futura. Le soluzioni open source spesso offrono la massima flessibilità.
Refine: Successivamente, è il momento di perfezionare e ottimizzare i dati in base ai requisiti aziendali esistenti. In questa fase è importante prevedere con la massima precisione possibile i requisiti futuri, al fine di ridurre le possibilità di migrare una quantità eccessiva di dati inutili, che non aggiungono valore ma possono far aumentare i costi del progetto.
Identify: Individuare le opportunità di utilizzo del cloud per carichi di lavoro specifici. A questo proposito sarà utile un’analisi dei workload per determinare dove si può ricavare il maggior valore. Si tratta di collegare i dati tra le varie sedi, sia on-premise che in più cloud, per ottimizzare il progetto. È anche un ottimo momento per considerare i potenziali casi d’uso per lo sviluppo.
Experiment: Provare framework GenAI pre-costruiti e di terze parti per trovare quello che meglio si allinea con i requisiti aziendali. È importante non prendere una decisione affrettata in quanto il modello deve integrarsi perfettamente con il sistema aziendale esistente.
Scale and Optimise: Una volta scelta la piattaforma più adatta, è opportuno selezionare uno o due casi d’uso da scalare in un modello di produzione. Il processo va continuamente ottimizzato, ma bisogna prestare attenzione ai costi legati alle GPU. Man mano che le capacità GenAI dell’azienda iniziano a crescere, si dovranno cercare modi per ottimizzarne l’uso. Per questo, una piattaforma di intelligenza artificiale flessibile è fondamentale per il successo a lungo termine.
Il futuro è qui
I leader IT e aziendali sono comprensibilmente entusiasti del potenziale innovativo delle applicazioni GenAI. Dal miglioramento del servizio clienti alla gestione della supply chain fino al DevOps potenziato, non sorprende che il 98% dei dirigenti sia d’accordo sul fatto che i modelli base di AI svolgeranno un ruolo importante per la loro strategia nei prossimi 3-5 anni.
Tuttavia, prima che qualcuno si faccia prendere la mano, è importante ricordarsi che c’è ancora molto lavoro da fare. Una moderna architettura dei dati deve essere il punto di partenza di qualsiasi progetto di AI di successo. Solo successivamente si potrà perfezionare, identificare, sperimentare, scalare e ottimizzare (Modello BRIESO). Il futuro ci aspetta.
A cura di Paul Mackay, Vice President Cloud – EMEA & APAC, Cloudera