Il regolamento sull’intelligenza artificiale dell’Unione Europea (AI Act) è entrato in vigore il 1° agosto, avviando un conto alla rovescia di 24 mesi per l’entrata in vigore completa della maggior parte delle normative. L’Atto è uno dei primi testi legislativi completi e vincolanti sull’AI, il cui impatto si farà sentire ben oltre l’Europa. Non solo, infatti, le aziende multinazionali che gestiscono qualsiasi carico di lavoro AI nell’UE dovranno conformarsi, ma l’Atto probabilmente ispirerà future normative AI in altre giurisdizioni, proprio come il GDPR ha fatto per la privacy dei dati. Inoltre, sebbene possa verificarsi una maggiore frammentazione nel quadro normativo globale sull’IA, poiché i paesi cercano di avanzare rapidamente con le loro regolamentazioni adottando un approccio più protezionistico, l’Atto potrebbe diventare lo standard globale de facto per la regolamentazione del rischio AI.
Attualmente tanto i fornitori di modelli AI quanto i loro utilizzatori si stanno chiedendo come adattare le proprie strategie per sfruttare con successo l’AI rimanendo conformi. Nessuna organizzazione è ancora completamente preparata e c’è molto lavoro da fare per cambiare questa situazione. Ma quali sono le complessità introdotte dall’AI Act, e come è possibile affrontarle?
L’AI federata aiuta a bilanciare le esigenze di dati con i requisiti di governance
L’Atto introduce rigorosi requisiti di governance dei dati, imponendo che i dataset utilizzati per l’addestramento dei modelli AI siano pertinenti, rappresentativi, privi di errori e completi in base al loro scopo previsto. Per soddisfare questo requisito, le aziende devono garantire un maggiore controllo e visibilità sui dati AI durante tutto il loro ciclo di vita e costruire un inventario dei dataset AI. Questo include la capacità di tracciare l’intera provenienza di qualsiasi nuovo dato consumato da partner o fornitori di servizi.
In tal senso, una delle sfide che le aziende devono affrontare è che l’efficacia dei modelli IA sia strettamente legata alla qualità e all’ampiezza dei dati su cui vengono addestrati. Poiché le normative rendono più difficile l’espansione dei dataset, le aziende potrebbero considerare i marketplace di dati e modelli IA come una soluzione.
Queste piattaforme potrebbero consentire la condivisione dei dati all’interno di un ambiente sicuro e neutrale, permettendo di espandere i dataset senza compromettere il controllo sui dati. Pertanto, i marketplace di dati e modelli AI potrebbero essere fondamentali per superare la sfida legata all’espansione dei dataset, mantenendo la conformità, poiché un modello di apprendimento federato consente ai collaboratori di condividere i propri dati all’interno di una piattaforma di scambio neutrale. Questo aiuta i partecipanti del mercato ad espandere i loro dataset attraverso la condivisione dei dati, senza dover rinunciare al loro controllo[1].
Garantire la resilienza dell’AI attraverso un’infrastruttura digitale robusta
Un altro aspetto della gestione del rischio nei casi d’uso dell’AI è assicurarsi che i modelli siano disponibili quando necessario.
In altre parole, stiamo parlando della resilienza dell’AI, che può essere ottenuta attraverso diverse sfumature:
- Geo-ridondanza, dove le organizzazioni possono scegliere un mix di backup in cloud e on-premises.
- Collaborare con un fornitore di infrastrutture digitali che offra una presenza globale di data center pronti per l’AI, un ecosistema denso di cloud providers e la flessibilità di cambiare rapidamente piattaforme AI per evitare tempi di inattività.
Considerando le crescenti esigenze di densità, per implementare l’AI correttamente è inoltre necessario ospitare i carichi di lavoro di inferenza nei luoghi adatti—quelli che offrono la migliore combinazione di densità di potenza e bassa latenza, insieme a tecnologie innovative, come il raffreddamento a liquido, per supportare carichi di lavoro ad alta densità.
Mantenere il controllo e la sicurezza dei dati e dei modelli AI
Per fidarsi dei risultati ottenuti dai propri modelli AI, è necessario essere certi che né i modelli né i dati utilizzati siano stati compromessi da accessi non autorizzati o manomissioni. Anche in questo caso, la Federated AI può aiutare le organizzazioni ad ottenere i dati necessari per alimentare i propri modelli senza introdurre rischi di sicurezza inaccettabili. Questo perché le aziende possono condividere dati con i loro partner dell’ecosistema mantenendo comunque privati i loro algoritmi e codici proprietari.
Inoltre, le aziende possono spostare i modelli verso la fonte dei dati, anziché trasferire i dataset verso i modelli.
La private AI può aiutare le aziende durante l’intero ciclo di vita dell’AI
Man mano che le aziende cercano di sfruttare le potenzialità dell’AI, la crescente complessità normativa può sembrare scoraggiante. Tuttavia, implementare una strategia di private AI può aiutare i clienti a gestire queste complessità in ogni fase di maturazione della loro AI.
Quando le organizzazioni iniziano il loro percorso nell’AI, molte optano per il cloud pubblico per evitare di dover installare un hardware fisico, utilizzando servizi digitali privati per proteggere i dati sensibili. Con la maturazione delle loro strategie AI, spesso però passano alla private AI, implementando gradualmente GPU per carichi di lavoro intensivi, rendendo il processo più efficiente e conveniente. L’accesso ai partner dell’ecosistema AI migliora ulteriormente l’efficienza e le prestazioni, con l’AI come servizio (AI as a Service) che consente un’implementazione rapida. Infine, quando raggiungono lo stadio di maturità nell’AI, alcune aziende optano per stack tecnologici dedicati e completamente gestiti per accelerare ulteriormente il deployment.
Tuttavia, man mano che le aziende progrediscono nel loro percorso AI, dovrebbero rimanere vigili riguardo alla conformità normativa, assicurandosi che le loro operazioni AI siano allineate ai requisiti dell’EU AI Act. Questo approccio proattivo le aiuterà a rimanere competitive rispettando i più alti standard di governance dei dati, resilienza e sicurezza.
[1] Articolo 10: Data and Data Governance, Eu AI Act
A cura di Petrina Steele, Business Development Senior Director, e Kully Singh, Director, Legal, Data & Privacy Office di Equinix