Negli ultimi anni si è creato un hype crescente intorno al tema dell’intelligenza artificiale che qualche volta ha anche generato dei malintesi o ci ha portato a guardarla con diffidenza, nella convinzione che questa potesse in un certo senso sottrarre posti di lavoro. In questa intervista esclusiva Luciano Martinoli,Presidente non esecutivo di Axiante, ci racconta cosa sono e come funzionano i sistemi di LLM (Large Language Model) che alimentano questo tipo di tecnologia per farci capire che l’intelligenza artificiale non è una vera forma di intelligenza, quanto piuttosto una forma di comunicazione artificiale che agisce come un assistente per guidare l’uomo nel suo compito e farglielo svolgere nel modo più efficiente e produttivo possibile. Se le macchine contribuiranno all’intelligenza sociale, non sarà perché hanno imparato a pensare come noi, ma perché noi abbiamo imparato a comunicare con loro.
Una vera e propria rivoluzione nell’intendere il fenomeno, che parte dall’assunto che la tecnologia e gli umani possono condividere delle responsabilità.
“Il modello di linguaggio è un sistema statistico che va a mettere in corrispondenza sequenze di simboli e probabilità – esordisce Martinoli -: dato un contesto di simboli, per esempio una frase che per il computer si costituisce come simbolo, il modello di linguaggio predice la probabilità del simbolo successivo. L’obiettivo del sistema è quello di massimizzare la probabilità delle sequenze di simboli osservata”.
Cosa si intende in concreto con il termine Large Language Model (LLM)?
“Il sistema LLM produce una sequenza di simboli, quindi una sequenza di parole, che ha senso in virtù delle probabilità che gli sono state assegnate. Se vogliamo fare un esempio, l’oggetto più vicino a un LLM, con le dovute differenze e semplificazioni, è il tubolario: nato intorno agli anni ‘80, era sostanzialmente un tubo costituito da vari elementi dove ciascuna fascia conteneva un pezzo di frase rispettando la sequenza: sostantivo, aggettivo, verbo, avverbio e così via. Andando a girare queste fasce si potevano ottenere delle frasi per gioco, a seconda del tema che si voleva trattare: quindi si poteva trovare il Tubolario per la politica, per lo sport, per l’arte, per la televisione e così via.
Chiaramente questo oggetto si basava sulla meccanica del tubo: i vari pezzi, ciascuno con una scritta, potevano essere combinati sulla base di come le fasce potevano roteare. Un LLM è una sorta di tubolario dove però i singoli pezzi del tubo non sono collegati in maniera hardware ma sono collegati da probabilità. Una volta che il sistema è stato costruito viene alimentato con testi e frasi dai quali è possibile dedurre la probabilità. Il modello matematico implementativo è quello delle reti neurali artificiali che sono delle unità di elaborazione di una certa complessità che hanno un ingresso e un’uscita con dei nodi interni”.
Come lavorano i sistemi di LLM?
“Per consentire la definizione dei pesi che sono all’interno dei nodi delle reti, quindi la probabilità di associazione dei simboli dei vari pezzi di ‘frase’, questo sistema ha necessità di essere alimentato da enormi quantità di dati in virtù dei quali si costruiscono le probabilità.
Più dati vengono forniti, più il sistema si equilibra al meglio su come ci aspettiamo che si comporti aumentando questo insieme di probabilità con le quali poi genererà il suo linguaggio. Il sistema LLM necessita di un tuning continuo attraverso il suo uso: è con l’uso che il sistema va a migliorare perché l’insieme dei nodi delle reti si adatta, aggiustando le probabilità, in virtù di quello che gli viene chiesto.
È chiara la necessità di avere enormi qualità di calcolo: si pensi che sistemi come ChatGPT hanno qualcosa come alcuni trilioni di nodi, all’interno dei quali vi sono svariate probabilità. E ci sono poi ovviamente anche problematiche relative ai copyright per l’accesso ai dati, perché la qualità dei dati fa la qualità del sistema e della sua risposta, e nel caso in cui si acceda a dati pubblici o coperti da copyright potrebbero sorgere problemi.
La potenza di calcolo e il copyright dei contenuti sono quindi vincoli pesanti che per essere affrontati impongono di avere grandi finanziamenti per lo sviluppo di LLM generici e da qui il motivo per il quale al momento vengono offerti solo dai colossi dell’It, come Google, Microsoft, Meta e così via”.
Molto spesso ci si riferisce ai sistemi di LLM definendoli come sistemi di intelligenza artificiale, mentre è più corretto chiamarli di comunicazione artificiale…
“Si tratta di un importante cambio di prospettiva presentato per la prima volta dalla professoressa Elena Esposito, sociologa che lavora sia all’Università di Modena e Reggio Emilia che in Germania e che ha pubblicato un libro su questo tema della comunicazione artificiale. Di fatto, nel descrivere questi sistemi mi sono astenuto dall’usare termini che richiamano attività umane: non ho parlato di intelligenza, non ho parlato di apprendimento, non ho parlato di comprensione.
Fondamentalmente questi sistemi sono delle complesse macchine statistiche che di fatto non hanno ambizioni di imitare l’intelligenza umana e proprio per questo sono efficaci. Il problema dell’intelligenza è che nemmeno noi siamo in grado di definirla in maniera precisa; quindi, diventa impossibile anche definire il lavoro che fa una macchina che assomiglia a un qualcosa che non conosciamo. L’unico elemento che ci porta a dire che un sistema è intelligente è se questo assomiglia a delle attività dell’essere umano. Così come siamo stati in grado di costruire macchine volanti quando abbiamo smesso di imitare lo sbattere delle ali degli uccelli oppure come abbiamo costruito macchine per spostare persone e merci che non riproducevano il movimento delle zampe di un cavallo o di un altro animale perché avevano le ruote, allo stesso modo abbiamo adesso scoperto che la comunicazione può avvenire con un partner non senziente”.
È un concetto piuttosto rivoluzionario…
“Assolutamente sì: la grande novità di questa tecnologia è proprio la comunicazione non intelligente, statistica e per questo ovviamente artificiale.
Siamo stati a lungo vincolati a metafore di quanto conoscevamo al momento dell’apparizione di un nuovo tecnologia, pensiamo ad esempio al fatto che ancora oggi per identificare la potenza di un motore termico, quindi motore a scoppio, viene utilizzata l’unità di misura dei cavalli vapore. Ovviamente nei motori non vi sono né cavalli né tantomeno a vapore. C’è quindi una sorta di antropomorfizzazione che se nel caso dei cavalli vapore è stata innocua, in questo caso però sta creando qualche problema. Basti pensare, per esempio, all’enorme attenzione che ha riversato su questa tecnologia la politica prima ancora che avessimo capito a cosa serve davvero l’AI.
C’è anche tanto timore verso questo tipo di tecnologia, ma probabilmente a causa di un certo sciovinismo di genere del genere umano, che si ritiene superiore. Qualsiasi cosa tenti o miri ad attaccare la nostra capacità e la nostra specificità genera una nostra reazione.
Dobbiamo partite dal presupposto che comunicare senza intelligenza è impossibile e che quindi quel sistema che definiamo intelligente è una minaccia verso di noi alla quale dobbiamo reagire. L’inversione di paradigma che ho illustrato va anche a combattere questo timore, perché bisogna intendere la questione in maniera completamente differente come comunicazione tra un essere senziente e una macchina non senziente”.
In relazione invece alle potenzialità di utilizzo dei sistemi LLM in ambito business cosa mi può dire?
“Alcune applicazioni in ambito business sono risultate abbastanza immediate, come quella della traduzione automatica che troviamo in ChatGPT, o nel sistema di Google: la creazione di testi tecnici o immagini, articoli di blog e così via rappresentano un ambito molto specifico, ma non possiamo immaginare che un sistema di questo tipo, essendo un sistema statistico, sia in grado di risolvere un problema generando del codice. La generazione del codice è limitata a contesti specifici, non necessariamente al web e alla elaborazione statistica di un certo dominio.
Le applicazioni di business in cui i sistemi LLM possono trovare applicazione possono essere quelle classiche basate su un paradigma, dove è necessario formalizzare un processo e automatizzarlo. Ma gli LLM possono dare un contributo più prezioso dove l’It classico si ferma: ci sono degli ambiti, ad esempio nel settore assicurativo, bancario, nella pubblica amministrazione, nell’alimentare o nel Pharma, in cui troviamo regolamentazioni molto strette e occorre accedere a quantità molto spesso rilevanti di documenti per fare una sintesi o evidenziare gli aspetti rilevanti. Un sistema di LLM è in grado di accedere in pochissimo tempo a tutta questa massa di informazioni e di andare a fare sintesi significative che consentono poi all’operatore umano di prendere delle decisioni più corrette, essere più efficiente e impiegare meno tempo per ogni pratica. Il sistema LLM fa risparmiare molto tempo perché da una grande mole di dati è in grado di fare una sintesi che rappresenta una sorta di canovaccio che poi l’uomo usa per le sue attività, che riesce ad ottimizzare. I sistemi di LLM non sostituiscono l’uomo quindi, ma lo aiutano a mettere insieme le idee.
È importante sottolinearlo perché molto spesso si pensa che la persona andrà sostituita, mentre invece il sistema di LLM fornisce un supporto in più che permette all’uomo di occuparsi di altre attività a maggior valore aggiunto”.
Cosa serve affinché queste potenzialità vengano realizzate?
“È necessario che si verifichi un profondo cambio di paradigma perché siamo bloccati sull’idea che questa tecnologia sia come quelle dell’It classico, cioè una forma tradizionale di automazione, mentre invece qui siamo di fronte a un agente assistivo che diventa più capace col tempo e automaticamente rende gli umani più capaci, non li sostituisce.
L’introduzione di Internet, del mobile computing, delle piattaforme cloud ci hanno insegnato che per estrarre valore da queste tecnologie rivoluzionarie non basta semplicemente integrarle nei processi esistenti di business, ma è necessario ripensarli completamente. Ora con i sistemi LLM bisogna avere lo stesso approccio: occorre ripensare il modo di lavorare per massimizzare il loro potenziale e il loro utilizzo.
Nel cambio di paradigma necessario bisogna partire dall’assunto che la tecnologia e gli umani possono condividere le responsabilità. Dinamicamente, ognuno di essi può assumere un ruolo guida in momenti diversi del processo e in base al contesto; e quindi i sistemi di LLM devono essere trattati non più come delle tecnologie statiche, ma come veri e propri assistenti ai lavoratori: vanno scelti così come si va reclutare un nuovo dipendente, non come si va a comprare una tecnologia”.
Questo cambio di paradigma inevitabilmente impone anche una nuova modalità di acquisto, implementazione, assistenza ed utilizzo di tali sistemi in aree totalmente nuove, oggi solo marginalmente supportate dall’IT classico. Può spiegarci meglio…
“Oggi questi sistemi sono offerti da diversi fornitori in modalità cloud, come ChatGPT, Gemini, Anthropic solo per fare alcuni nomi e si tratta di tecnologie che non vanno considerate valutandone l’architettura e le funzionalità, ma piuttosto come ‘persone’ da assumere. Mentre una tecnologia in genere viene acquisita andando a richiedere al fornitore una demo qui bisogna colloquiare: bisogna mettersi davanti a questi sistemi, incominciare a dialogare e capire la loro capacità di rispondere e di interagire con l’operatore umano rispetto al dominio specifico. Come dicevo prima, però, una volta scelto il sistema, questo deve essere addestrato e alimentato con dati che vanno selezionati opportunamente in modo da orientare il comportamento degli LLM sullo specifico dominio di business.
Questa è un’attività che impone sia le consuete operazioni di data management sia attività di creazione di dati sintetici che sono dati da una modalità nuova, diversa dal semplice rendere anonimi i dati e che sono molto utili per risolvere il problema sia dei dati sensibili che di quelli coperti da copyright.
Tra le altre novità parliamo anche della nascita di nuove figure professionali, come il Prompt Engineering, un esperto di intelligenza artificiale che si occupa della creazione di input a supporto di questa.
Un’altra competenza per così dire nuova è quelle linguistica: si cercano laureati in lingue e con background umanistico.
Un’ultima novità è la nascita e diffusione di sistemi LLM sviluppati in forma open source per sviluppare sistemi custom più piccoli, che richiedono minor potenza di calcolo e che quindi possono girare su server dedicati on premise, in completa controtendenza rispetto al cloud”.
Come devono muoversi le aziende?
“I sistemi di LLM possono essere utilizzati per risparmiare costi assistendo e otenziando certe attività ma da soli non fanno nulla. Metterei in guardia le aziende dal pensare che l’LLM possa risolvere chissà quali problemi. Occorre prima definire una strategia da perseguire e poi verificare se con questa tecnologia questa strategia può essere realizzata”.