Nel contributo che vi proponiamo qui di seguito, Roberto Carrozzo, Head of Intelligence & Data Minsait, si interroga su come si possano bilanciare i benefici dell’intelligenza artificiale e delle GAN con i rischi che esse comportano e garantire che queste potenti tecnologie vengano utilizzate per il bene della società.
Buona lettura.
È di qualche mese fa l’incredibile notizia pubblicata dal New York Times in cui si raccontava di un ospedale ungherese in cui un software di intelligenza artificiale ha individuato, in una paziente, un principio di cancro al seno che era sfuggito all’occhio attento dei radiologi. Circa nello stesso periodo andavano virali sui social le foto del Papa con outfit improbabili ma iper-realistici. Che cos’hanno in comune queste due notizie, apparentemente così distanti tra di loro? La tecnologia alla base: le reti neurali artificiali.
Questi modelli computazionali possono aiutare a comprendere in anticipo le evoluzioni di un tumore e prevedere una cura per il trattamento. Come abbiamo visto, però, possono anche semplificare la generazione di notizie false e immagini truccate difficilmente distinguibili dalla realtà. Sebbene questi due casi d’uso siano totalmente agli antipodi, sia per quanto riguarda l’ambito di applicazione che per quanto concerne la finalità, essi riassumono perfettamente le potenzialità e i rischi di questi modelli di intelligenza artificiale.
Il pericolo corre sulle GAN?
Uno dei modelli più potenti e innovativi tra le reti neurali artificiali è quello delle Generative Adversarial Networks (GAN). Il funzionamento delle GAN è basato sulla competizione tra due reti neurali: generatore e discriminatore. Partendo da un dataset con dati reali, il primo cerca di creare dati sintetici che imitino quelli reali, e il secondo cerca di distinguerli da quelli effettivamente prodotti da esseri umani. Attraverso questa continua sfida, il generatore riceve un feedback dal discriminatore su come migliorare i propri campioni, e attraverso questa retroazione, il generatore migliora sempre di più la propria capacità di generare contenuti che sembrano reali. Questo ciclo di feedback continuo porta alla produzione di contenuti sempre più convincenti.
Le GAN sono molto efficaci per catturare effetti complessi e hanno mostrato un enorme potenziale in diversi ambiti di applicazione come ad esempio l’image inpainting ovvero il ripristino di parti mancanti da immagini, la super resolution che consente di rendere ad alta definizione immagini a bassa definizione, il denoising per rimuovere il rumore dai dati (ad esempio la rimozione del rumore statistico dalle immagini a raggi x in ambito sanitario). In ambito medico questi modelli di intelligenza artificiale vengono già utilizzati per lo studio delle immagini a raggi x al fine di comprendere come evolve il cervello dei pazienti in presenza e assenza di patologie dirette e per comprendere in anticipo l’evoluzione di alcuni tipi di tumore (come, ad esempio, il glioblastoma) e prevedere una cura per il trattamento.
Dietro l’intelligenza artificiale un bel dilemma etico
Nonostante le incredibili opportunità offerte dalle GAN per migliorare e innovare vari settori, esistono anche rischi e minacce non trascurabili legati alla sempre maggior democratizzazione di questi strumenti di intelligenza artificiale. Tra i principali pericoli vi è sicuramente la semplificazione nella generazione di notizie false o di immagini contraffate utilizzabili da attori malevoli per perseguire fini compromettenti o diffamatori. La diffusione massiccia di contenuti falsi può contribuire a manipolare l’opinione pubblica, impattando negativamente il sistema democratico e la società nel suo complesso.
Quindi come possiamo bilanciare i benefici delle GAN con i rischi che esse comportano? Come possiamo garantire che queste potenti tecnologie vengano utilizzate per il bene della società, invece che per scopi malevoli?
Da una parte è la stessa tecnologia che può venirci incontro. Sono in corso iniziative che prevedono l’uso dell’intelligenza artificiale per individuare le fake news. È paradossale come la stessa tecnologia possa aiutare a individuare gli usi impropri della tecnologia stessa.
Dall’altra parte non si può non considerare il tema etico. Il professor Luciano Floridi ha stilato cinque principi fondamentali che determinano il carattere etico dei sistemi di intelligenza artificiale, e sono: beneficenza, non malevolenza, autonomia, giustizia ed esplicabilità. Ed è proprio la mancanza di questo ultimo principio che continua a compromettere l’eticità di tecnologie come le GAN, che nella maggioranza dei casi non condividono informazioni sul proprio algoritmo, sul dataset di riferimento o sui metodi di addestramento.
Serve maggiore trasparenza
Finché non ci sarà maggiore trasparenza non sarà possibile indagare sugli scopi e sui pericoli che si celano dietro questi sistemi. Inoltre, come dimostrano le ultime iniziative nazionali e sovranazionali, è necessario che le istituzioni si attivino per rispondere alle sfide portate dalle IA, senza pregiudicare le potenzialità di innovazione e di sviluppo. Un esempio è quello dell’European Data Protection Board che ha deciso di avviare una task force con l’obiettivo di favorire la cooperazione e lo scambio di informazioni tra i paesi membri in tema di regolamentazioni sull’Intelligenza Artificiale. È fondamentale, in tal senso, una stretta collaborazione tra esperti del settore, governi, istituzioni e altri stakeholder per definire standard e best practice che tutelino gli interessi dei cittadini e prevengano l’abuso di queste tecnologie.
Un futuro sostenibile per l’Intelligenza Artificiale è possibile, ma tutti gli attori coinvolti devono lavorare insieme per creare un domani in cui algoritmi come le GAN possano prosperare, ma senza compromettere il benessere della società e la stabilità del nostro sistema democratico.