È l’era dell’Intelligenza Artificiale, tecnologia dalle tante sfaccettature che potrebbe rappresentare un’”arma a doppio taglio”. Ecco perché è necessario che venga divulgata una conoscenza “buona” ed etica di questa potente invenzione. Per questo motivo è stato creato e inaugurato il laboratorio multidisciplinare GOOD AI dell’Università di Pisa dedicato, appunto, allo studio e allo sviluppo di sistemi di “buona” Intelligenza Artificiale, che soddisfino, cioè, non solo criteri di accuratezza ed efficienza, ma anche di trasparenza, sicurezza ed eticità. Il laboratorio ha sede presso il Dipartimento di Ingegneria dell’Informazione dell’Ateneo pisano e vede la partecipazione di docenti e ricercatori con diverse competenze, dalla filosofia alla linguistica computazionale fino alla giurisprudenza, all’informatica e all’ingegneria, non solo dell’Università di Pisa, ma anche di Scuola Normale Superiore e CNR.
L’intervento di presentazione del coordinatore
“La diffusione rapidissima di sistemi di Intelligenza Artificiale sempre più potenti ha inevitabilmente un grande impatto economico, sociale e culturale”, afferma Francesco Marcelloni, docente al Dipartimento di Ingegneria dell’Informazione dell’Università di Pisa e coordinatore del laboratorio. “Basti pensare a sistemi come ChatGPT o DALL-E, che sono in grado di generare contenuti sotto forma di testi e immagini che hanno qualità spesso indistinguibili da quelli prodotti dagli umani. La recente evoluzione dei sistemi di Intelligenza Artificiale apre scenari applicativi fino a pochi anni fa impensabili, ma rende al tempo stesso urgente il tema della loro potenziale pericolosità, e diventa indispensabile poter distinguere una “buona IA”, a cui delegare con fiducia molti compiti anche in contesti critici, da una “cattiva IA”, che è invece imperativo controllare e limitare. Il laboratorio GOOD AI, che riunisce al suo interno competenze altamente interdisciplinari, si occuperà di valutare la conformità di sistemi di Intelligenza Artificiale, soprattutto quelli usati in contesti critici, come per esempio i sistemi di riconoscimento facciale, rispetto a criteri non solo di efficienza, ma anche di trasparenza, sicurezza ed eticità”.
Un accenno all’AI Act
La valutazione anche etica dei sistemi di Intelligenza Artificiale è oggetto della prima normativa europea sull’argomento, l’“AI Act”, che impone che i sistemi di AI immessi sul mercato abbiano superato la procedura di valutazione di impatto prevista dalla norma secondo un sistema a “scala di rischio”, che prevede la soddisfazione di requisiti di conformità sempre più elevati a seconda della criticità del contesto di applicazione.
“Questa normativa”, prosegue Francesco Marcelloni nel suo intervento in occasione dell’evento inaugurale di GOOD AI, “avrà naturalmente un effetto importante sul mercato stesso delle Tecnologie dell’Informazione, in quanto il successo di un’applicazione potrà dipendere proprio dal suo grado di conformità ai valori della “buona IA”. Per questo, oltre a occuparsi dello sviluppo di sistemi conformi, il laboratorio GOOD AI si occuperà anche di fornire consulenza a imprese e Pubbliche Amministrazioni relativamente al grado di adeguatezza delle loro applicazioni rispetto ai principi stabiliti dalla normativa europea. Il supporto da parte del mondo della ricerca a società e imprese per l’adeguamento delle proprie tecnologie alle nuove normative”, conclude, “è sempre più strategico su sistemi, come quelli di Intelligenza Artificiale, il cui sviluppo procede al momento a ritmo vertiginoso. Lo sviluppo anche industriale del nostro paese dipende in modo critico dalla capacità del mondo imprenditoriale di adeguarsi ai nuovi paradigmi di tipo etico, sociale e normativo dell’industria 5.0, che vogliono i processi produttivi plasmati sulle esigenze di persone e ambiente”.
Il laboratorio GOOD AI nasce dalle attività del progetto FAIR, finanziato dal PNRR con l’obiettivo di sviluppare i sistemi di intelligenza artificiale del futuro.
I componenti del Consiglio Scientifico del GOOD AI LAB
- Francesco Marcelloni (coordinatore) e Pietro Ducange, Dipartimento Ingegneria dell’Informazione
- Adriano Fabris e Veronica Neri, Dipartimento di Civiltà e Forme del Sapere
- Alessandro Lenci e Giovanna Marotta, Dipartimento di Filologia, Letteratura e Linguistica
- Dino Pedreschi e Anna Monreale, Dipartimento di Informatica
- Marco Conti, CNR
- Fosca Giannotti, Scuola Normale Superiore