Pubblicato da Cefriel, centro di innovazione digitale fondato dal Politecnico di Milano, il nuovo white paper “Intelligenza Artificiale Responsabile – Cos’è, perché se ne parla, cosa devono fare le imprese?”. Il testo, scritto da Diego Ragazzi, esperto senior di Data Strategy Cefriel, e scaricabile gratuitamente, vuole approfondire il tema dell’Intelligenza Artificiale responsabile, anche alla luce della discussione intorno ai rischi che questa può comportare per le persone.
Qual è il mercato dell’AI?
Il valore complessivo del mercato dell’Intelligenza Artificiale – AI – crescerà del 19% nei prossimi tre anni secondo Idc.In Italia, secondo quanto riportatodall’Osservatorio Artificial Intelligence 2023 della School of Management del Politecnico di Milano, il mercato dell’AI nel 2022 ha raggiunto i 500 milioni di euro, con una crescita del 32% in un solo anno, di cui il 73% commissionato da imprese italiane (365 milioni di euro) e il 27% rappresentato da export di progetti (135 milioni di euro).
Numeri che dimostrano come la diffusione dell’Intelligenza Artificiale sia inarrestabile e porti un numero crescente di imprese a guardare con interesse a questa opportunità visto che, come afferma Gartner nel Gartner Hype Cycle for AI 2023, “l’adozione anticipata di queste innovazioni porterà a un significativo vantaggio competitivo”. Secondo lo stesso Osservatorio AI del PoliMI, il 61% delle grandi imprese italiane ha già avviato almeno un progetto di Intelligenza Artificiale e tra queste, il 42% ne ha più di uno operativo.
Perché si deve parlare di Intelligenza artificiale responsabile?
L’intelligenza artificiale è diventata in poco tempo un potente motore di trasformazione per il mondo delle imprese e per la società in generale. Il 30 novembre 2022 OpenAI rilasciava la prima versione di Intelligenza Artificiale generativa in grado di interagire con il grande pubblico attraverso una semplice e intuitiva interfaccia conversazionale: ChatGPT.
L’evento ha avuto un impatto dirompente, ben oltre la ristretta cerchia di specialisti del settore che per anni hanno sviluppato i modelli e le tecnologie alla base del suo straordinario successo. Governi e comuni cittadini hanno scoperto di navigare in un mare ignoto, dove non è chiaro quale rotta convenga seguire. Comprensibilmente, tutto ciò ha rinfocolato timori che sembravano sopiti e ha riproposto con prepotenza i grandi temi etici legati allo sviluppo dell’intelligenza artificiale.
Veicoli autonomi e assistenti virtuali personalizzati, solo per fare un paio di esempi, hanno dimostrato uno straordinario potenziale per migliorare la produttività, semplificare i processi e aprire possibilità senza precedenti. Tuttavia, con il proliferare della tecnologia, aumenta anche la necessità di garantire uno sviluppo responsabile, che non è solo un obbligo morale ma anche un imperativo strategico per le aziende. Affrontando attivamente questioni come la trasparenza, l’equità, l’affidabilità e la responsabilità, le aziende possono creare fiducia tra i collaboratori, i clienti e i partner commerciali, favorendo una percezione positiva della tecnologia.
Cosa possono fare le imprese per arginare il rischio?
Secondo quanto riportato da Cefriel nel white paper, le imprese devono aumentare la consapevolezza interna: è necessario comprendere almeno le principali sfide etiche poste dai sistemi di AI, quali imparzialità, equità, autonomia decisionale, responsabilità, trasparenza, sicurezza, benessere sociale. Lavorare sulla cultura di fondo è importante anche per un altro motivo, legato a una tematica affine e parzialmente sovrapposta alla questione etica: l’accettazione dell’AI da parte dei dipendenti e collaboratori dell’impresa e, più in generale, dei cittadini.
Un passo successivo consiste nel cominciare a mappare i casi d’uso, attuali e prevedibili, supportati da sistemi di AI, e fare una prima valutazione del “rischio etico”. Per le imprese che operano in Europa questo è un passo fondamentale, perché l’AI Act, il regolamento in lavorazione in seno all’Unione Europea per regolamentare l’utilizzo dell’intelligenza artificiale, adotta precisamente una prospettiva basata sul rischio.
Intelligenza Artificiale Responsabile subito
Un approccio etico allo sviluppo e all’utilizzo dei sistemi di AI in azienda non è più da rimandare. Il rischio normativo, legale e di immagine legato allo sviluppo di iniziative di AI è già oggi elevato e non potrà che crescere in futuro. L’adozione di buone pratiche di sviluppo responsabile dell’intelligenza artificiale non solo consente di ridurre l’esposizione al rischio, ma permette di realizzare applicazioni e servizi di qualità, migliorandone accuratezza e prestazioni.
“C’è un urgente bisogno di percorsi di awareness – sottolinea Alfonso Fuggetta, Amministratore Delegato di Cefriel – e per questo Cefriel ha presentato di recente un nuovo servizio che vuole accompagnare le imprese e le pubbliche amministrazioni nel fare una valutazione del rischio circa l’impatto delle soluzioni basate su AI, per pianificare processi e azioni mirati a fare della tecnologia un uso responsabile e a rendere i servizi e i prodotti offerti in linea con quanto già definito dall’AI Act. Non avviare fin da ora le azioni volte a sviluppare awareness e valutare i rischi connessi allo sviluppo e all’utilizzo dell’AI nelle imprese potrebbe vanificare gli investimenti pianificati”.