Come si fa a utilizzare gli strumenti di intelligenza artificiale in modo sicuro, evitando di creare backdoor che permettano alle informazioni sensibili di finire nei programmi di apprendimento esterni? In questo articolo, Manlio De Benedetto, Senior Director Sales Engineering EMEA di Cohesity sottolinea la necessità di procedere con estrema calma, in modo controllato e con cognizione di causa.
Buona lettura!
Alcuni suggerimenti su come i team IT possono adottare in modo sicuro l’AI
Le chatbot di AI Generative, come ChatGPT, possono interpretare dati tecnici complessi in un linguaggio leggibile dall’uomo in pochi secondi e la maggior parte dei CEO a livello globale vede grandi opportunità in questa tecnologia perché spera in un incremento dell’efficienza. Ogni team IT prima o poi dovrà trovare le risposte su come utilizzare strumenti di AI, perché ci saranno indicazioni precise dalla direzione aziendale.
In particolare, i cicli di innovazione dell’AI sono estremamente brevi, il che significa che la moltitudine di nuovi approcci, concetti e soluzioni si infittisce ogni giorno, pur considerando che quasi tutti i principali vendor di hardware e software IT hanno aggiunto elementi di AI alle relative soluzioni.
Tuttavia, se i team IT utilizzano strumenti di AI in modo prematuro e ambizioso, potrebbero inconsapevolmente aprire nuove falle nella sicurezza. Gli Endor Labs hanno esaminato i software open source dello stack tecnologico dell’AI e hanno scoperto che più della metà dei riferimenti ai progetti presenta vulnerabilità ai propri file manifest. Come possono i team IT sfruttare il potenziale di questa tecnologia senza creare nuove vulnerabilità? Il consiglio di Cohesity: Introdurre l’AI lentamente, in modo controllato.
Punti chiave
Un buon inizio in tema di AI è legato alle operations aziendali e a tutti quei processi e passaggi in cui i team IT devono intervenire manualmente e investire tempo e risorse per portare a termine il flusso con successo, un approccio LEAN automatizzato, se vogliamo. È necessario esaminare le caratteristiche dei dati a cui accedono, le fonti di dati interne ed esterne che consultano e i partner con cui condividono le informazioni. Poiché alcuni moduli di AI sono progettati a livello globale e inoltrano automaticamente i dati interni ai server esterni, alcune aziende sono state sorprese da questo sviluppo e hanno appreso faticosamente che gli utenti interni stavano alimentando i data base degli strumenti di AI globali.
Gli approcci all’AI guidati dal vendor, come quello di Cohesity, vengono integrati nel loro ambiente e ne rivelano il funzionamento, consentendo ai team IT di valutare con precisione il rischio e di evitare possibili scambi di dati con l’esterno. I team IT devono essere selettivi su sistemi e fonti di dati che i moduli di AI esaminano attivamente, per iniziare con un piccolo cluster e introdurre gli strumenti di AI in modo controllato.
Dedicare del tempo all’apprendimento
Quando i moduli di AI vengono attivati, il loro funzionamento e i loro suggerimenti devono essere monitorati da un responsabile del team IT per un ampio periodo di tempo. L’AI agirà sempre meglio e in modo più accurato quanto più a lungo lavorerà e quanti più dati e modelli avrà raccolto nel singolo ambiente dell’azienda. Inizialmente, quindi, commetterà più errori man mano che impara. I dati sono fondamentali: più sono, meglio è. È consigliato di adottare anche il processo Retrieval-Augmented Generation (RAG), per ampliare i dati di apprendimento.
In ogni caso, i moduli possono suggerire rapidamente le misure più appropriate, soprattutto per le attività standard. Se, ad esempio, gli indirizzi IP provenienti da aree geografiche sospette vengono bloccati da un firewall, l’AI può suggerire le regole giuste e un esperto di IT deve solo approvarle. L’AI suggerisce, mentre la decisione finale spetta all’uomo. Più l’AI diventa sofisticata, più è in grado di preparare decisioni critiche e di aiutare in modo sostanziale i team a risparmiare tempo, smistando in anticipo il volume di informazioni nelle operazioni aziendali. Gli ambienti odierni generano quotidianamente petabyte di dati di log, che indicano varie criticità legate alla sicurezza o alle performance. Nella maggior parte degli ambienti, l’80% di queste informazioni non viene valutato perché il volume è troppo elevato. L’AI può elaborare questi dati su base giornaliera e renderli accessibili per le query vocali. È possibile porre ai dati domande come “Mostrami tutti i sistemi con uno specifico livello di patch e questa vulnerabilità” senza dover scrivere una singola stringa come in precedenza. I team IT saranno più informati e prenderanno quindi decisioni migliori.
Prepararsi ad affrontare l’esterno
In particolare, i moduli AI relativi alla sicurezza vengono spesso istruiti ad aggiornarsi all’esterno – su nuovi metodi di attacco, vulnerabilità, patch e così via. In questo caso è necessario controllare attentamente quali informazioni escono e quali dati tornano indietro. Nessun CISO accetterà che i dettagli sulla propria struttura di rete e sulle vulnerabilità e patch attuali vengano inseriti in un motore di AI esterno. È opportuno analizzare in un test pilota quali dati vengono realmente inviati. I vendor con approcci maturi agli strumenti di AI possono mostrare in dettaglio quali informazioni immettere e se ci sono modi per l’azienda di escludere alcuni elementi fin dall’inizio. Esaminare ogni singolo input diventa complicato su base giornaliera a causa del volume di aggiornamenti dei moduli di AI, a meno non venga sviluppata un’autorità di controllo dell’AI, che a sua volta controlli gli input e gli output dell’AI dal punto di vista della sicurezza.
Tuttavia, i team IT dovrebbero impegnarsi in questo processo, perché il potenziale dell’AI autonoma nella propria rete è immenso, dove ogni area di attività ne trarrà vantaggio e si creeranno in automatico delle sinergie. Si pensi che l’AI delle risorse umane scambi informazioni con l’AI della sicurezza e con quella del magazzino sul fatto che un utente dell’ufficio finanziario sta accedendo ai server di ricerca tramite il suo smartphone. Un messaggio di allarme verrebbe inviato immediatamente al team di sicurezza.
Conclusioni
L’intelligenza artificiale può ridurre drasticamente l’enorme carico di lavoro dei team IT e di sicurezza, fornendo report completi e indicazioni chiare e precise sui passaggi successivi, dando una prospettiva di lavoro ai gruppi operativi che sono sottodimensionati per i difficili compiti da svolgere. Entrando nel merito delle attività di Data Protection & Recovery, occorre rivolgersi al vendor più capace e innovativo che sia pronto a fornire l’AI già parte integrante delle proprie soluzioni. Oggi gli strumenti di AI possono essere di grande supporto, svolgendo in autonomia molte delle attività più importanti ma al tempo stesso ripetitive e noiose, trasmettendo gli eventi ai team IT/Security quando diventano critici e complicati. In questo modo, l’AI può contribuire in modo decisivo ad accrescere la resilienza informatica contro gli attacchi che, ironia della sorte, sono sempre più spesso sferrati dall’intelligenza artificiale.
di Manlio De Benedetto, Senior Director Sales Engineering EMEA di Cohesity