L’Intelligenza Artificiale (IA) si è molto evoluta rispetto alle fantasiose esemplificazioni immaginate nei film e nella fantascienza, diventando una componente tangibile delle nostre vite attraverso elementi quali i chatbot e i suggerimenti per lo shopping. Tuttavia, come avviene con molte tecnologie nuove e ancora nascenti, gli uomini tendono ad attraversare un periodo di valutazione scettica, incredulità alimentata dalla società e adozione parziale esitante, prima di raggiungere un livello di accettazione ampio e convalidato.
L’IA, se messa in opera, implementata e integrata in modo appropriato, può offrire un vero e proprio balzo in avanti nell’intelligence operativa, consentendo operazioni di business più profittevoli che forniscono esperienze migliori ai clienti a tutti i livelli. È possibile ottenere un nuovo livello di “intimità col cliente” (customer intimacy) dove i sistemi di business vengono reinventati e intere supply chain sono “aumentate” (augmented), fatte evolvere e potenziate. Com’è possibile, date le sfide che l’IA stessa deve fronteggiare in termini di diffusione del panico da “ribellione dei robot”, passare a un nuovo livello di adozione dell’IA, in cui l’intelligenza artificiale sia ritenuta affidabile, provata, consolidata e, soprattutto, trasparente?
Un percorso chiaro verso una IA trasparente
La responsabilità di abilitare questa nuova era dell’IA non poggia soltanto sulle spalle dei business leader, ma appartiene anche a tutti gli interessati e agli stakeholder che cerchino i numerosi benefici di sistemi più veloci e più smart. Il lavoro volto a ottenere un nuovo livello di fiducia e di trasparenza sta procedendo a livello internazionale, in un modo che tutti sperano si dimostri efficace e vigoroso.
Attualmente ancora in bozza, la legge Europea sull’intelligenza artificiale EU AI Act (European Union Artificial Intelligence Act) avrà probabilmente un impatto sia sulle imprese esterne che interne all’Unione, a causa della natura del business internazionale.
L’EU AI Act (AIA), nella sua essenza, insiste sul fatto che gli umani restino al centro dell’innovazione e della governance dell’IA. Mentre cominciamo ad applicare i vantaggi delle efficienze dell’IA e del Machine Learning (ML) a sistemi, servizi e prodotti, dobbiamo assicurarci che il processo di presa di decisione umana sia sempre alla base della logica e degli algoritmi utilizzati dall’IA. Questa IA umano-centrica è necessaria per governare in modo corretto la privacy personale, l’etica umana e la compliance aziendale.
In termini di agire umano e di supervisione, il team AIA dell’Unione Europea ha dichiarato: “I sistemi IA dovrebbero responsabilizzare gli esseri umani, consentendo loro di prendere decisioni informate e promuovendo i loro diritti fondamentali. Allo stesso tempo, sono necessari meccanismi di controllo adeguati per gli approcci human-in-the-loop, human-on-the-loop e human-in-command (cioè umani coinvolti nel ciclo decisionale, umani che possono rifiutare il ciclo decisionale e umani in totale controllo, ndt)”.
Proprio come nel caso della GDPR (General Data Protection Regulation) dell’Unione Europea, l’implementazione della legge EU AI potrebbe richiedere tempo, ma come la GDPR si rivelerà importante per le imprese. La legge EU AI Act assumerà probabilmente una posizione rigida riguardo al come e al dove applicare multe significative per punire la non-aderenza.
La trasparenza comincia con la capacità di controllo
Sappiamo che per acquisire i benefici della IA occorre fiducia. È chiaro perciò che i migliori sistemi di IA saranno quelli più trasparenti e più controllabili. Questi sono sistemi caratterizzati da tracciabilità e spiegabilità e consentono di stabilire canali di comunicazione chiari per illustrare, spiegare e convalidare i modelli di IA su cui sono costruiti.
Se disponiamo di una visuale chiara sugli algoritmi e sui processi di ML (Machine Learning) che portano a far funzionare un modello di IA, allora avremo trasparenza nei processi, strumenti, dati e ‘attori’ (modelli matematici di calcolo) coinvolti nella produzione del processo stesso totale di IA.
I processi di IA più controllabili (e perciò più trasparenti) sono quelli costruiti con un livello di documentazione chiaro e sufficientemente completo per consentire agli auditor di accedervi e utilizzarli. Un auditor IA dovrebbe essere in grado di utilizzare quella documentazione per produrre gli stessi risultati utilizzando lo stesso metodo di IA con un nuovo team di data science. In diversi modi, potremmo definire questa una forma di reverse engineering progettata per testare, validare e corroborare il livello di trasparenza richiesto e necessario.
La genealogia dei modelli di IA
Per poter ottenere una vera trasparenza e fiducia in un sistema di IA, occorre essere in grado di comprendere la sua genealogia. Si tratta dell’insieme di associazioni logiche tra qualsiasi modello di ML di partenza utilizzato da un’IA e tutti i componenti coinvolti nella sua creazione. Tracciare la genealogia di un modello è più difficile se non si dispone di operazioni di modellazione robuste e scalabili – cosa che tipicamente è legata al numero di componenti coinvolte, che può essere grande, dinamico e difficile da tracciare.
Sia la fiducia che la trasparenza possono venire indirizzate con una gestione dei modelli robusta e scalabile. La Model Operation, che è lo sviluppo e la gestione dei modelli di ML che supportano le iniziative di IA, è fondamentale per rendere operativa la IA. Tuttavia, può essere ardua e problematica da scalare, perciò le organizzazioni devono pensare di lavorare in modo diligente con i propri team di data science e IT, per comprendere le proprie sfide operazionali individuali.
In pratica, una trasparenza solida è una miscela di divulgazione, documentazione e tecnologia. Volendo spiegare le cose in termini tecnici più specifici, gli strumenti relativi alle data fabric e alla operatività dei modelli tracciano e rendono evidente la trasparenza dei dati attraverso i log delle modifiche e la cronologia. L’accesso a questi asset ci consente di tracciare e ripetere le azioni dei modelli di IA. Queste azioni, nello specifico, costituiscono i meccanismi dell’IA trasparente che si svolgono in condizioni operative.
Questa tracciabilità di dati e modelli, unita a divulgazione e documentazione adeguate, contribuiscono a far sì che i dati vengano utilizzati, le decisioni prese e le implicazioni di queste decisioni rese più trasparenti in tutta l’organizzazione. Non ci possiamo ragionevolmente aspettare a nessun livello che i clienti e i partner (e in realtà gli impiegati interni di un’azienda in qualsiasi organizzazione) si cimentino con – per non parlare dell’affidarsi a – un qualsiasi sistema di business guidato dalle decisioni dell’Intelligenza Artificiale senza trasparenza a tale livello.
Un mondo migliore (più trasparente)
Oggi abbiamo una invidiabile, eccitante e arricchente opportunità di abbracciare l’IA e l’ML, utilizzandole per rendere le nostre vite migliori su tanti livelli.
Se pensiamo all’incredibile velocità con cui sono stati prodotti vaccini in risposta alla pandemia a partire dall’inizio della decade attuale, questa azione (e molte altre collaterali) illustra come sia possibile sfruttare IA ed ML per fare molto di più, molto più velocemente e con molta più accuratezza che in qualsiasi altro momento delle nostre vite fino a questo punto.
Quando facciamo avanzare queste azioni e lo facciamo all’interno dei vincoli posti dalla compliance e dalla governance che comunità, medici e legislatori decideranno e stabiliranno, allora possiamo abbracciare con fiducia l’IA e i suoi molti benefici – una customer experience assolutamente positiva, scoperte mediche rivoluzionarie ed eccellenza operativa – che sappiamo che è in grado di fornire.
Di Lori Witzel, Director of Research for Analytics and Data Management, TIBCO