Negli ultimi anni l’Intelligenza Artificiale ha cambiato tutti i processi aziendali, soprattutto nel settore industriale. Chi si occupa di Intelligenza Artificiale a 360° è S2E, società di consulenza che opera in ambito business technology a supporto della trasformazione digitale delle organizzazioni. La peculiarità di S2E è che la sua offerta non si rivolge ad un settore specifico ma permette di operare in diversi ambiti con proposte tailor made per tutte le aziende che vogliono differenziarsi.
La validità dell’approccio S2E emerge anche da vari riconoscimenti che l’azienda ha ottenuto: come partner Advanced di Amazon Web Services (AWS), ad esempio, la piattaforma GenerativeShield di S2E, si è aggiudicata due Premi nel Partners Showdown “AI generativa e innovazione con AWS”: Disruptive Use Case e Best Architecture Award.
Il percorso di S2E è costellato da successi e soddisfazioni.
L’azienda ha collaborato all’implementazione del percorso di automazione dei processi aziendali di Banca Progetto, utilizzando la piattaforma di automazione basata sull’intelligenza artificiale di UiPath.
Nei prossimi mesi, invece, S2E sarà presente ai seguenti eventi (Scopri di più a questo link):
- 7 e 8 maggio 2024: ItaliaSec Cyber Summit Milano.
- 8 maggio 2024: Italy Insurance Forum.
- 22 maggio 2024: RPA & Intelligent Automation.
- 23 maggio 2024: AWS Summit Milano.
Abbiamo parlato con Andrea Cappelletti, Business Unit Director Digital Transformation & Hyperautomation di S2E per approfondire i temi dell’Intelligenza Artificiale e dell’offerta della società, con un focus particolare su GenerativeShield, la soluzione SaaS di Artificial Intelligence (AI) nata per mitigare rischi e complessità legate all’impiego dell’intelligenza artificiale generativa da parte delle organizzazioni e Generative Pillars, un framework che permette di creare agenti conversazionali di ultima generazione.
Le aziende italiane stanno abbracciando l’intelligenza artificiale?
“Da quello che stiamo osservando i trend sono due: da una parte abbiamo gli “esploratori”, ovvero quelle aziende che, indirizzate da manager innovativi o da board che hanno la volontà di accogliere questa novità, hanno il coraggio di lanciarsi per evolvere il modo con cui si fa business; dall’altra parte, invece, abbiamo tutte quelle aziende che, in un modo o nell’altro, utilizzano sempre di più l’AI per efficientare i KPI e i costi.
Chi è meno “esploratore”, in questo momento, si lancia su temi meno di frontiera andando verso soluzioni di AI più “industrializzata” e mainstream, soprattutto nell’ambito dell’automation. Qui si accolgono funzionalità di AI che garantiscono dei processi di business standard e che portano un vantaggio tangibile immediato e benefici al business”.
Esistono ancora dei freni all’adozione dell’AI?
“Se guardiamo gli ambiti più innovativi come possono essere la Generative AI, il Natural Language Processing, l’AI conversazionale, i problemi principali sono ben sintetizzati anche in diversi framework come l’”AI TrISM: Tackling Trust, Risk and Security in AI Models” di Gartner, nel quale vengono raccolte le problematiche che portano le aziende ad avere timore dell’adozione di strumenti di AI. Qui si parla di “Trust” in termini di affidabilità, ovvero di quanto questi strumenti possono essere affidabili per garantire un risultato.
Un altro fattore rilevante sono le aspettative degli utilizzatori. L’AI per sua natura non è deterministica, sui casi d’uso più navigati si arriva facilmente a percentuali abbastanza alte di precisione delle risposte. Quando, invece, entriamo nell’ambito della GenAI, dell’AI conversazionale o della Chain of Thought, la cosa impressionante è che si arriva ad un 70/80% di precisione in poche ore, la strada verso il 90% e oltre è molto più in salita ed è fondamentale decidere quale è l’aspettativa corretta per il caso d’uso. Puntare al 100% con aspettative deterministiche è estremamente inefficace in termini di tempi e costi. Considerare gli agenti AI come “colleghi” estremamente competenti ma che possono sbagliare in rari casi è qualcosa che permette di mitigarne i rischi con metodi e strumenti che le aziende già utilizzano normalmente per il lavoro svolto dalle persone, mantenendo delle aspettative coerenti, ragionevoli e in linea con le tecnologie attualmente disponibili.
Ciò che frena l’implementazione dell’AI sono quindi, da una parte i temi di rischio e trust, dall’altra i temi di privacy e sicurezza. Sugli ambiti più di frontiera stiamo affrontando una serie di complessità e rischi nuovi mentre nell’ambito industriale legato ad attività di efficientamento l’adozione dell’AI va molto più veloce”.
In S2E come vi approcciate all’AI?
“Portando avanti in maniera parallela, ma a velocità e modi diversi, due tipi di approccio. Da un lato andiamo verso la massima innovazione sui temi di AI Generativa costruendo delle risposte a due macro-problemi: quello del trust, risk & security e quello della complessità dell’offerta. Dall’altro mettiamo a buon uso prodotti e strumenti altamente industrializzati e affidabili per introdurre l’AI nei processi aziendali tramite l’Hyperautomation.
Parlando di Generative AI, oggi scegliere una tecnologia a lungo termine è estremamente rischioso. Per questo proponiamo la soluzione Generative Pillars, un framework contenente una toolbox di competenze e strumenti che permette di creare agenti conversazionali altamente agnostici ai modelli linguistici, ai database vettoriali e agli strumenti necessari a gestire le catene di pensiero.
Per quanto riguarda invece il fattore della sicurezza e privacy, GenerativeShield, realizzato agli inizi del 2023 risponde alla seguente domanda: “quali saranno i rischi e le complessità che affronteranno le aziende quando adotteranno questa tecnologia?”. In questo scenario abbiamo realizzato una piattaforma che oggi offriamo anche in modalità SaaS o containerizzata su architetture dei clienti, e che fa da filtro tra l’utente finale che parla con un agente conversazionale e gli agenti conversazionali stessi. Questi ultimi possono essere di qualsiasi tipo: modelli LLM come ChatGPT, agente conversazionale interno non controllato da S2E o collegato ad un agente conversazionale creato tramite Generative Pillars.
La nostra piattaforma GenerativeShield permette di mitigare ulteriormente il livello di rischio portato dall’uso di una piattaforma conversazionale basata sulla GenAI.
Cosa è l’Hyperautomation e che ruolo ha l’intelligenza artificiale?
“L’Hyperautomation è una pratica che racchiude tutto ciò che significa modificare e trasformare il modo con cui vengono svolti i processi aziendali, secondo dei principi di alta integrazione, alta cross-funzionalità e alta automazione, puntando all’automazione degli interi processi end-to-end e non solo i singoli task.
L’automazione dei processi esiste già da diverso tempo ma solo negli ultimi anni sono disponibili prodotti altamente maturi che integrano funzionalità basate sull’AI per abilitare casi d’uso che, sebbene fattibili anche in passato, richiedevano tempi e costi enormemente superiori ad oggi.
Mentre l’automazione tradizionale simula ciò che fa l’essere umano, con l’ausilio dell’AI si abilitano delle capacità che l’essere umano non ha. Qui entriamo nella branca della Document Understanding, Communication Mining e Computer Vision, tecnologie che permettono di interagire con le informazioni e i sistemi in modi altamente affidabili e resilienti.
Le aziende con cui lavoriamo che hanno deciso di adottare l’hyperautomation si sono trovate nella condizione di avere la capacità di scalare in tempi brevissimi in alto e in basso le loro capacità produttive. Questa è una strada che non è per tutti ma, se intrapresa, porta dei risultati sorprendenti di efficienza e scalabilità”.
Come l’AI permette di ottimizzare la robotic process automation (RPA) e il robot test automation (RTA)?
“Per la RPA, l’AI introduce delle capacità che prima non c’erano. La Document Understanding, ad esempio, permette di operare su documenti senza bisogno di prevedere e mappare la struttura degli stessi. Se per esempio parliamo di documenti di trasporto (DDT), dopo averne gestiti una certa quantità, abbiamo dei modelli che ci permettono di gestire i prossimi DDT provenienti da un nuovo fornitore perché, sapendo le informazioni contenute in esso, l’AI riesce a gestire le varianti della struttura di questi documenti. Lo stesso vale anche per casi più complessi come pratiche di Mutuo o Polizze Assicurative.
Il Communication Mining invece è la capacità di categorizzare, intercettare e comprendere la comunicazione delle persone nei processi aziendali consentendo di comprendere di cosa ha bisogno l’interlocutore e quanto è stato soddisfatto della risposta. Questo, per un’azienda, significa poter controllare la postura e il proprio comportamento nei confronti del cliente, ma anche valutare le performance aziendali e identificare i fattori di insoddisfazione dei propri clienti con dati chiari e azionabili.
Per quanto riguarda la Robotic Test Automation, tradizionalmente poco resiliente ai cambiamenti della UI/UX, in risposta abbiamo la Computer Vision, ovvero la capacità del robot di osservare lo schermo come farebbe un essere umano e questo permette al Test Automatico di eseguire le proprie verifiche a prescindere dal contenuto “tecnico” delle interfacce, focalizzandosi sul contenuto di business, molto più resiliente nel tempo”.
Perché è importante la Process Discovery e quali sono i suoi vantaggi?
“La Process Discovery o Process Mining, è un approccio che permette di scoprire come l’azienda lavora perché c’è una discrepanza tra il modo con cui effettivamente si lavora e l’aspettativa da parte di un capo di ciò che fanno i propri collaboratori.
Un altro vantaggio è la possibilità di identificare e mappare senza bisogno di ricevere a priori della documentazione, consentendo di identificare le inefficienze dove occorre intervenire per efficientare.
C’è da dire che sono tecnologie che lavorano in maniera brillante ma è importante fare attenzione a due fattori: l’approccio di Process Mining deve essere fatto secondo regolamenti e normative, con opportune comunicazioni, per tempi limitati ed evitare il telecontrollo che non è permesso in Europa. Per quanto riguarda il Process Discovery è importante considerare che vengano osservati i log dei sistemi: se sono ben fatti, correlati fra loro e disponibili, c’è la possibilità di ottenere risultati importanti”.
I chatbot sono sempre più utilizzati dalle aziende. Che soluzioni offrite in questa direzione?
“Il termine chatbot per noi richiama un metodo vecchio, per cui parliamo, dall’avvento della GenAI, di Assistenti e Agenti, che rappresentano un vero e proprio cambio di paradigma piuttosto che un semplice efficientamento.
Con le nuove tecnologie possiamo spiegare all’AI cosa vogliamo, come se gli stessimo dando delle procedure da seguire per compiere del lavoro, che saranno implementate dal sistema al meglio delle sue capacità, ovvero la capacità di uno o più modelli coinvolti nell’esecuzione delle catene di pensiero.
Alcuni modelli di bassa complessità, sono adatti a casi d’uso molto specifici. Altri modelli, invece, sono in grado di effettuare un livello di ragionamento, definito “Chain of Thought”, nel quale noi possiamo portare l’AI dal punto A al punto B, dando una serie di passaggi logici. L’agente sarà così in grado di percorrere questa mappa logica per arrivare al risultato.
Quello che è uno dei comportamenti più pregevoli realizzati con Generative Pillars è il modo in cui gli agenti conversazionali si comportano rispetto alle informazioni e rispetto all’affidabilità delle stesse. L’approccio tecnico che viene utilizzato è, di base, l’ormai molto diffuso RAG (Retrieval-Augmented Generation): quindi usiamo i dati dell’azienda per andare a fornire all’agente le informazioni di contesto che deve utilizzare per ragionare e lavorare. Quello che fa la differenza è l’approccio alle catene di pensiero: se il sistema ha tutto il necessario per dare una risposta chiara e assertiva lo farà senza indugi, se invece ha delle informazioni non complete per formulare una risposta o produrre un contenuto, esso agirà in maniera “conservativa”, evidenziando i dati disponibili e quelli assenti e si comporterà come un tipico collega umano: ipotizzerà la risposta più opportuna in base alle informazioni che possiede solo se viene stimolato a farlo con l’assoluta consapevolezza dell’utente che stiamo andando “fuori dalla comfort zone”.
Quali sono i progetti futuri di S2E in ambito AI?
“Vogliamo continuare a restare sulla “cresta dell’onda”. In ottica di protezione dobbiamo continuare ad evolvere “GenerativeShield” nella direzione di standardizzare i controlli in base ai regolamenti specifici come ad esempio MIFID, IVASS e simili. Uno dei nostri obiettivi principali è quello di adeguare GenerativeShield ai requisiti normativi dell’AI Act, introducendo una serie di controlli e filtri specifici relativi all’ambito Etico, tema su cui S2E è particolarmente attenta per cultura aziendale e delle nostre persone.
Inoltre, intendiamo andare avanti sull’evoluzione di Generative Pillars, ovvero la piattaforma per costruire agenti conversazionali continuando a innovare di settimana in settimana per cogliere le novità e metterle in pratica con la sicurezza di un framework solido con cui verificare gli impatti di ogni singola modifica.
La grande sfida, per noi, è quella di continuare a mantenere la nostra pluralità, ovvero essere in grado di operare attingendo alle tecnologie più efficaci disponibili in un dato momento e continueremo a farlo fintanto che le soluzioni non saranno stabili e consolidate, solo a quel punto valuteremo se “sposare” una o l’altra tecnologia.
Infine, ci stiamo concentrando sull’esecuzione dei modelli LLM non tramite cloud provider pubblici come SaaS, ma anche in ambienti più controllati. A proposito di questo, poco più di un mese fa è arrivato un forte breakthrough sull’esecuzione “privata” di Modelli LLM: grazie al “continuous batching” si può riuscire ad arrivare a un livello di parallelizzazione fino a 10-20 volte maggiore in termini di risposte gestibili, a parità di hardware rispetto al precedente approccio. Questo apre le porte a nuovi casi d’uso e scenari di controllo proprietario degli ambienti di esecuzione dei Modelli LLM, precedentemente insostenibili a livello di costi per la media e grande impresa.