L’Intelligenza Artificiale (AI) rappresenta sicuramente una grandissima opportunità ma, come ogni invenzione “geniale” inventata a fin di bene, potrebbe essere una grande minaccia per la sicurezza digitale. Come possiamo prevenire gli “attacchi intelligenti”? Ce lo spiega, in questo articolo, Domenico Iacono, Presales Manager, Team Lead Italy & Spain di Commvault.
Buona lettura!
L’intelligenza artificiale nelle mani degli avversari: come cambiano i rischi per la sicurezza digitale
Dopo il recente AI Safety Summit, tenutosi nel Regno Unito, che ha riunito esperti di AI provenienti da tutto il mondo, per le aziende è tornato il sereno. Nel corso dell’evento si è assistito a un mix di previsioni positive e avvertimenti, ma in sostanza i partecipanti hanno concordato di promuovere i vantaggi dell’AI e di scoraggiarne l’uso improprio, anche se si tratta di una cosa più facile a dirsi che a farsi.
Inoltre, l’Unione Europea ha recentemente reso noto un accordo sulla regolamentazione dell’AI, la cui legislazione non è prevista almeno fino al 2025. Al suo interno, le proposte contengono salvaguardie sull’uso dell’AI all’interno dell’area, tra cui regole su sistemi come ChatGPT e il riconoscimento facciale.
È chiaro che l’AI sta segnando la nascita di una nuova era di innovazione e progresso tecnologico; il suo utilizzo e applicazione sono al tempo stesso acclamati e attentamente esaminati. Governi e aziende devono porsi oggi domande relativamente a chi la usa, come e per quale scopo.
La sfida per i team di sicurezza digitale è la messa a punto di una cyber resilienza in grado di contrastare le minacce che si avvalgono dell’AI. Per la maggior parte di loro, cercare di stare un passo avanti ai malintenzionati non è una novità. Ciò che è diverso, e causa di preoccupazione, è il modo in cui l’intelligenza artificiale sta livellando il campo di gioco.
Una nuova lega di attaccanti
Ciò che prima richiedeva ai malintenzionati un notevole sforzo umano, conoscenze e competenze tecniche, ora può essere gestito in modo più efficiente ed efficace da LLM (modelli linguistici di grandi dimensioni) e dall’AI. Prendiamo ad esempio un attacco mirato a compromettere la catena di approvvigionamento di un’azienda.
L’AI può semplificare e velocizzare l’orchestrazione di un attacco di questo tipo, automatizzando e coordinando fasi del processo che prima venivano svolte manualmente. Nel corso della pianificazione, gli strumenti di AI analizzano vaste quantità di dati per identificare ogni potenziale vulnerabilità all’interno della supply chain. In seguito, sono in grado di elaborare metodi per sfruttarne i punti di accesso più suscettibili, in base ai punti deboli specifici rilevati.
Successivamente, per contribuire all’esecuzione dell’attacco, LLM come ChatGPT possono essere istruiti al fine di creare efficaci email di phishing e post sui social. Attingendo a una vasta base di conoscenze, i contenuti realizzati contengono riferimenti credibili alla supply chain e informazioni pertinenti al ruolo e agli interessi del destinatario, rendendo molto più difficile per i dipendenti riconoscere il vero intento sottostante. Queste comunicazioni sono spesso molto più convincenti di quelle prodotte in precedenza. Anche i più prudenti potrebbero essere tentati di cliccare su un link sospetto o fornire inavvertitamente informazioni che potrebbero aiutare un criminale e mettere a rischio la sicurezza digitale.
Una volta che un attacco è in corso, l’automazione guidata dall’intelligenza artificiale può ottimizzare l’invio di payload malevoli attraverso la catena di approvvigionamento e l’ecosistema, scegliendo i momenti e i percorsi più opportuni per eludere il rilevamento da parte delle difese IT.
Questa capacità di elaborare enormi moli di dati, imparare dai modelli e prendere decisioni dinamiche può far apparire gli attacchi molto complessi, di ampia portata e potenzialmente più pericolosi di quanto non siano, forse lasciando intendere che ci sia una rete criminale sofisticata alle spalle. Tuttavia, con l’aiuto di strumenti di intelligenza artificiale, anche persone inesperte possono produrre attacchi completi, che li pongono apparentemente sullo stesso piano di criminali esperti e organizzazioni più grandi e preparate.
Un gioco a due facce
Le aziende devono essere pronte a far fronte a un numero crescente di attacchi più intelligenti e a determinarne rapidamente la criticità, altrimenti si corre il rischio di reagire in modo eccessivo o di non cogliere i primi segnali di allarme di una potenziale violazione. Per questo è necessario sfruttare l’intelligenza artificiale per battere i criminali al loro stesso gioco.
In parallelo, gli strumenti di intelligenza artificiale possono essere impiegati per analizzare in tempo reale grandi quantità di informazioni sulle minacce provenienti da più fonti, identificando gli indicatori nascosti. Possono monitorare il comportamento di utenti ed entità, confrontandolo con i parametri di riferimento della normale attività e individuare le anomalie che indicano una compromissione. La valutazione dei dati storici può anticipare le minacce potenziali alla sicurezza digitale, consentendo una valutazione più rapida e accurata dei rischi futuri. Inoltre, il monitoraggio continuo dei dati sulle minacce in arrivo assicura che le difese IT possano essere adattate rapidamente per combattere pericoli e tattiche emergenti.
L’intelligenza artificiale svolge un ruolo fondamentale anche nella protezione degli endpoint, implementando algoritmi che riconoscono e neutralizzano malware e ransomware, comprese le varianti inedite. Insieme a strumenti di intelligenza artificiale specializzati nel rilevamento di attacchi di phishing, le comunicazioni dannose possono essere differenziate da quelle legittime e messe in quarantena per ulteriori indagini, riducendo il rischio che i destinatari clicchino su link sospetti.
Quando si verifica un incidente o una violazione alla sicurezza digitale, l’automazione guidata dall’intelligenza artificiale può aiutare il processo di indagine e mitigazione, accelerando il ripristino per ridurre al minimo ulteriori danni.
Colmare il gap di competenze per garantire una sicurezza digitale
Le piattaforme di sicurezza digitale odierne sono in grado di fornire una gamma completa di misure di protezione e risposta basate su intelligenza artificiale per sconfiggere gli attaccanti, tra cui allarme precoce, rilevamento delle minacce, preparazione agli incidenti, risposta rapida e ripristino. Data la continua carenza di personale addetto alla sicurezza, queste soluzioni possono anche aiutare a colmare eventuali lacune con difese sempre attive.
Grazie all’intelligenza umana, la natura adattiva dell’AI permetterà ai team di sicurezza di essere alla pari dei loro avversari criminali, di competere sullo stesso piano e mantenere alta la cyber resilienza. Le aziende che non riescono a tenere il passo con l’adozione dell’AI danno ai cybercriminali un vantaggio significativo e saranno molto più esposte al rischio di gravi violazioni. Non lasciamo che questo accada.
di Domenico Iacono, Presales Manager, Team Lead Italy & Spain di Commvault