Nell’ultimo anno, l’intelligenza artificiale (AI) ha portato cambiamenti incredibili: da nuovi sistemi creativi per realizzare contenuti alla nascita di strumenti aggiuntivi da utilizzare. Ma abbiamo anche assistito al caos che la tecnologia può provocare, soprattutto nell’ambito informatico al quale dedichiamo molto del nostro tempo. Non possiamo più fidarci di ciò che leggiamo, vediamo o sentiamo e, come individui e aziende, ci troviamo di fronte a nuove forme di attacco che non riusciamo ancora a comprendere appieno. E altri cambiamenti sono all’orizzonte. Cosa possiamo aspettarci per l’anno appena iniziato?
Gli hacker non forzeranno più gli ingressi ma entreranno in punta di piedi
Le tecniche generative hanno fatto molta strada. La presenza di una diversa sintassi e di toni contraddittori rende gli attacchi classici, come il phishing, più convincenti e difficili da individuare. I dipendenti forniranno le loro credenziali perché le richieste saranno familiari e credibili, spalancando così la porta agli attaccanti.
Oppure i “segreti’ potrebbero semplicemente sparire
I modelli generativi possono essere utilizzati per creare contenuti personalizzati e convincenti e gli aggressori li useranno per innescare nuove tecniche di social engineering. Invece di puntare ai sistemi vulnerabili gli hacker avranno nel mirino le ”menti” vulnerabili. La capacità degli attaccanti sponsorizzati dagli Stati di influenzare una persona per indurla ad agire in un modo a cui non avrebbe mai pensato prima è una realtà. Deepfakes e disinformazione possono trasformare dipendenti e cittadini in avversari e, cosa ancora più preoccupante, gli atti di intimidazione online possono diffondersi rapidamente e scatenare minacce e atti di violenza su scala globale.
E le minacce potranno provenire anche dall’interno
Per quanto innovativi, i modelli generativi sono a loro volta vulnerabili ad attacchi inediti e la loro natura creativa può rendere la compromissione incredibilmente difficile da rilevare. Questi modelli sono già alla base di molti dei prodotti più avanzati tecnologicamente che utilizziamo quotidianamente. Gli aggressori sono impegnati a colpire questi modelli, alimentandoli con dati che creano falle sfruttabili nelle fasi di training dei modelli generativi stessi. Naturalmente, è la stessa AI che permette loro di farlo a velocità macchina e su scala globale.
I governi cercheranno di regolamentare l’AI e le aziende dovranno adeguarsi Il genio dell’AI è uscito dalla lampada. Le autorità di vigilanza gli stanno dando la caccia e hanno già emanato norme che richiedono alle imprese di garantire un controllo maggiore di quello che probabilmente sono in grado di fare. Per adeguarsi, le aziende dovranno modificare radicalmente il loro approccio allo sviluppo e alla sicurezza dei sistemi. Paradossalmente, le normative potrebbero rendere la vita più facile agli hacker, almeno nel breve termine, poiché le aziende si affanneranno a introdurre nuovi strumenti e processi necessari per proteggere i propri collaboratori e gli ambienti operativi mentre gli hacker utilizzeranno l’AI per creare attacchi sofisticati e più veloci senza preoccuparsi di dover rispettare le normative.
Combattere il nemico con gli strumenti adeguati
La stessa tecnologia sta però rivoluzionando anche la sicurezza e la protezione: rende più semplice individuare e risolvere le vulnerabilità nei codici e nelle configurazioni, automatizza sempre di più le operazioni di rilevamento e risposta agli attacchi e, in ultima analisi, consente ai team di sicurezza di dedicare più tempo alla ricerca e alla messa a punto di nuovi metodi per migliorare la sicurezza nel mondo.
L’AI suscita, giustamente, timori, incertezze e dubbi. Ma il 2024 sarà un anno di grande successo per le aziende che avranno la volontà e le capacità di mettere queste tecnologie al servizio del SOC.
A cura di Paolo Cecchi, Sales Director Mediterranean Region di SentinelOne