Hitesh Sheth, fondatore e CEO di Vectra AI, commenta così l’entrata in vigore dell’European AI ACT:
“L’intelligenza artificiale (AI) ha aperto numerose porte in tutti i settori, consentendo alle organizzazioni di esplorare nuove opportunità e aumentare, scalare e sviluppare le loro attività. Tuttavia, queste stesse porte hanno anche consentito l’espansione delle minacce e degli incidenti informatici, oltre a inaugurare crescenti preoccupazioni in merito alla sua sicurezza e alla sua conformità. Tanto che i governi e le agenzie di tutto il mondo hanno indirizzato sforzi significativi verso la rivalutazione delle attuali normative sull’IA e la creazione di nuove direttive per aiutare a contenere i rischi dell’AI e le minacce incombenti.
L’European AI Act – la prima legislazione completa al mondo sull’IA – mira a trovare un delicato equilibrio tra la salvaguardia dei diritti fondamentali, la garanzia di conformità e sicurezza e il sostegno all’innovazione, non va sottovalutato che ci sono altre iniziative nella medesima direzione. Ad esempio, nell’ottobre 2023, l’amministrazione Biden ha emesso un ordine esecutivo sull’uso e lo sviluppo dell’intelligenza artificiale, seguito da un annuncio da parte del National Institute of Standards and Technology (NIST) degli Stati Uniti nell’aprile di quest’anno, per contribuire a migliorare la sicurezza, la protezione e la affidabilità dei sistemi di intelligenza artificiale. Come evidenziato da Deloitte, sebbene esistano approcci diversi nelle proposte di regolamentazione avanzate a livello globale, possono essere individuati percorsi analoghi e parallelismi. Ciò è emerso dopo l’analisi di oltre 1.600 politiche sull’intelligenza artificiale che si sono tradotte in innumerevoli regolamentazioni, in borse per la ricerca e strategie nazionali. In particolare, nel panorama dell’emanazione di norme in diversi Paese e aree del Continente, se si guarda allo slancio intrapreso negli Stati Uniti che nell’UE, entrambi gli sforzi normativi rivelano un filo conduttore comune: una visione unificata e un obiettivo collettivo per ridurre al minimo i rischi promuovendo al tempo stesso l’innovazione dell’intelligenza artificiale in modo da massimizzarne il pieno potenziale positivo.
Di conseguenza, mentre i governi di tutto il mondo continuano a introdurre delle normative sulla AI – e di pari passo le organizzazioni si impegnano a promuovere e adottare soluzioni di intelligenza artificiale – è fondamentale che queste regole rimangano indirizzate nella riduzione del rischio in modo da evitare di porre nello stesso tempo un freno all’innovazione. Indipendentemente dal fatto che si tratti di un approccio generale alla regolamentazione o verticale a una specifica area o a uno specifico ambito, garantire una strategia globale sulla creazione di vincoli per un uso sicuro e conforme dell’AI e insieme per un suo progresso è fondamentale”.