Supponiamo di guidare un’auto senza che esistano regole della strada. Più veicoli circolano, maggiore è la probabilità di incidenti o blocchi. È evidente che tutto ciò che mette potenzialmente a rischio le persone ha bisogno di linee guida per garantirne la sicurezza. Questo vale anche per l’AI. Con la crescita del suo uso da parte di consumatori, aziende e governi, diventano sempre più necessarie regole per un utilizzo responsabile. Così come è cresciuta la consapevolezza dell’impatto ambientale delle automobili e si sono sviluppati sforzi per ridurlo, lo stesso vale per l’AI. Anche in questo caso, sono necessarie soluzioni meno esigenti dal punto di vista energetico.
Fino ad ora, i discorsi si sono in gran parte focalizzati su temi esistenziali come l’“unicità” dell’intelligenza artificiale, quando l’AI diventerà più intelligente dell’uomo, o se ci rimpiazzerà. In realtà questo processo è già partito. Assistenti e agenti AI assumeranno molte funzioni, dalla stesura di messaggi e lo sviluppo di software, fino ad arrivare a prendere decisioni in quasi tutti gli aspetti della nostra vita, indipendentemente dal fatto che ce ne renderemo conto o meno.
Fortunatamente, dato che il futuro è adesso, la discussione ha assunto una connotazione meno drammatica ed è diventata molto più concreta in termini di soluzioni offerte. In generale, non si parla di vietare l’intelligenza artificiale, ma piuttosto di pensare a politiche per mitigarne i rischi e definire meccanismi di educazione e implementazioni. Mantenendo il paragone con la guida, ci riferiamo a limiti di velocità e cinture di sicurezza, ma anche a educazione alla guida e patenti. I promotori di un’AI responsabile adottano lo stesso approccio: non vietare l’intelligenza artificiale in sé per sé, ma piuttosto mettere dei paletti per garantirne un uso responsabile che riduca i rischi.
Corrette regolamentazioni in vigore
Nonostante il clamore e il volume di notizie che generano preoccupazione, non è tutto cupo come appare. I modelli di intelligenza artificiale hanno migliorato i processi e la produttività in tutti i settori, dal rilevamento del cancro al seno alla riduzione degli scarti di produzione e altro ancora. Per affrontare gli effetti più negativi, organizzazioni di tutto il mondo stanno già pubblicando linee guida, i governi stanno legiferando normative come l’AI Act dell’Unione Europea e i provider di tecnologie stanno sviluppando strumenti per aumentarne la trasparenza e la semplicità di utilizzo. Queste misure sono un primo passo non solo per identificare e potenzialmente correggere i rischi, ma anche per educare gli utenti a essere più consapevoli e gli sviluppatori a essere più coscienti del possibile impatto di queste nuove tecnologie.
Nonostante vi sia una positiva collaborazione internazionale in materia, è altresì vero che esistono approcci diversi all’AI: un controllo più severo in Cina e uno più autonomo negli Stati Uniti, con le direttive dell’UE che si inseriscono tra questi estremi con una politica generale orientata alla prevenzione dei rischi. Oltre a ciò, per quanto concerne l’aspetto di collaborazione internazionale, la Dichiarazione di Bletchley firmata nel Regno Unito un anno fa evidenzia il comune riconoscimento dei rischi e l’interesse e l’investimento nella collaborazione per promuovere una maggiore consapevolezza e sicurezza.
Oltre alle normative governative e di settore, resta fondamentale la governance dell’AI e dei dati all’interno delle organizzazioni. Per contribuire alla comprensione e alla mitigazione dei rischi legati all’intelligenza artificiale, tutti all’interno dell’azienda – dal livello più basso fino ai piani alti – devono essere informati sui dati e sull’AI. Devono sapere come vengono utilizzati i dati, conoscere il valore che apportano alle loro organizzazioni, i potenziali rischi a cui prestare attenzione e qual è il loro ruolo. Dal punto di vista più tecnico o professionale, le aziende hanno bisogno di politiche di accesso e di utilizzo ben definite per garantire che i dati siano adeguatamente protetti e utilizzati in modo appropriato. Tutte le persone di un’organizzazione svolgono un ruolo nella catena del valore, sia che si tratti di acquisire i dati in modo accurato, proteggerli, creare algoritmi e applicazioni che li analizzano o prendere decisioni sulla base delle informazioni fornite.
Una solida base dati per realizzare le ambizioni dell’AI
Come tutti sappiamo, non può esistere una strategia di intelligenza artificiale senza una strategia dati, e soprattutto senza i dati stessi. Una maggiore quantità e diversificazione dei dati non solo alimenta i modelli AI, ma attenua anche i rischi di “allucinazioni” ovvero quei casi in cui i sistemi di intelligenza artificiale forniscono risposte imprecise o preconcette, in cui i risultati non sono oggettivi o neutrali. I modelli di intelligenza artificiale di solito non “inventano” le risposte, ma possono attingere da fonti inaffidabili, come ad esempio quell’AI che consigliava di aggiungere colla alla salsa della pizza per evitare che il formaggio scivolasse via. In particolare, nel mondo delle imprese, dati diversificati, pertinenti e di alta qualità costituiscono l’ingrediente principale per ogni strategia di business.
Oggi, l’intelligenza artificiale pare potersi occupare dei problemi relativi alla qualità dei dati. Ad esempio, le automatizzazioni AI possono rilevare eventuali anomalie, correggere proattivamente i dati al momento della loro acquisizione, risolvere le incongruenze tra le entità e creare dati sintetici. L’intelligenza artificiale può anche contribuire a garantire la sicurezza dei dati identificandone le vulnerabilità. Questo non significa che i leader dei dati possano rilassarsi, in quanto le pratiche responsabili in materia di dati e AI richiedono una solida data governance con tecnologie in grado di proteggere la privacy.
I dati devono anche essere pertinenti al caso d’uso specifico. In questo senso, l’enterprise AI è diversa dagli strumenti di AI generici. In azienda, il modello viene scelto per affrontare una sfida specifica: prevedere le vendite, consigliare un prodotto o un servizio, identificare anomalie, difetti o ritardi nel processo di produzione. La scelta del modello di AI, compresa la decisione di costruire, acquistare o perfezionare un modello, può attenuare i rischi di “allucinazioni” o bias. L’intelligenza artificiale aziendale viene progettata su misura e, di conseguenza, è più efficiente in termini di gestione delle risorse.
Verso un’AI più ecologica
Arriviamo così a un altro elemento di rischio dell’intelligenza artificiale: la sostenibilità. Si prevede che l’AI avrà grande impatto sui settori legati al cambiamento climatico, aiutando a ottimizzare l’uso dei combustibili fossili e a promuovere l’adozione di altre forme di energia. Ma, di per sé, l’AI è energivora. Infatti, alcuni studi stimano che ChatGPT utilizzi attualmente oltre mezzo milione di chilowattora di elettricità al giorno, pari al consumo di quasi 180.000 famiglie statunitensi. È tempo, dunque, di impiegare l’intelligenza artificiale nella ricerca di soluzioni per compensare la sua stessa domanda di energia.
Dal punto di vista delle best practice, le aziende devono trovare un equilibrio tra le sperimentazioni con diversi casi d’uso dell’AI e la garanzia di un suo corretto utilizzo, che abbia uno scopo autentico e, in ultima analisi, un ritorno sull’investimento. L’adozione di un’enterprise AI con operatori appositamente formati e addestrati è un primo passo. La trasparenza lungo
tutta la supply chain, dagli input agli output e ai risultati, consente di avere una maggiore comprensione dell’impatto ambientale e dei compromessi raggiunti per ottenere un vantaggio economico.
Un futuro più sicuro per l’AI inizia ora
Incoraggiare il dialogo e aumentare la trasparenza e, auspicabilmente, la capacità di comprendere l’intelligenza artificiale rappresentano i primi passi fondamentali per mitigarne i rischi. La collaborazione globale già in atto in occasione di eventi come l’AI Safety Summit, che ha portato all’accordo di Bletchley, è incoraggiante. La sensibilizzazione all’interno delle organizzazioni – a tutti i livelli – e tra i consumatori aumenta il bacino di potenziali controllori e li dota di strumenti per osservare e porre domande. In altre parole, l’esperienza è la migliore insegnante.
Si tratta di indicazioni che possono essere implementate per migliorare la comprensione e la definizione dei requisiti per le piattaforme dati e AI del futuro. Tali richieste estenderanno le attuali considerazioni su diversità dei dati, sicurezza, governance e sostenibilità. Tuttavia, la chiave per un’AI realmente più sicura sarà rappresentata da una comprensione più profonda del suo potenziale – sia positivo che negativo – che può provenire solo da una più ampia educazione ai dati e all’AI nell’intera società.