Immaginate di essere a capo delle attività di sicurezza e protezione dei dati in qualità di Chief Information Security Officer (CISO) di un’azienda globale, quando una tempesta di chiamate e messaggi istantanei sconvolge la vostra routine mattutina. Un attacco inarrestabile guidato dall’intelligenza artificiale ha preso il controllo di dispositivi, sistemi e reti, minacciando i vostri dati. Con i continui progressi registrati dall’AI, cresce la preoccupazione per il suo uso improprio da parte dei criminali informatici. Le minacce basate su questa tecnologia hanno il potenziale per essere più sofisticate, adattive e dannose degli attacchi tradizionali. Per contrastare questo panorama di rischi in evoluzione, è necessario quindi adottare una strategia di resilienza che abbracci approcci altrettanto innovativi.
Attacchi guidati dall’intelligenza artificiale
I criminali informatici sfruttano l’AI per esplorare miglioramenti e tecniche volti ad aumentare le loro capacità di attacco. Ad esempio:
Phishing avanzato e social engineering
L’AI generativa consente ai malintenzionati di automatizzare le attività fraudolente, come la creazione di email di phishing, la generazione di falsi account, recensioni e commenti sui social media, l’impersonificazione di agenti di servizio e assistenza e la realizzazione di truffe. I vasti set di credenziali e dati personali rubati possono essere analizzati in pochi secondi per migliorare le campagne di phishing e social engineering.
Generazione adattiva di malware e botnet
Le minacce informatiche e le botnet guidate dall’intelligenza artificiale che si modificano durante le fasi di attacco espongono i team IT a rischi esponenziali, evolvendosi in tempo reale per evitare le misure di sicurezza, identificare vulnerabilità nei sistemi target e coordinare gli attacchi in modo più efficiente rispetto alle minacce generate dall’uomo. Una preoccupazione crescente nel campo della cybersicurezza è legata alle minacce generate dall’AI in grado di aggirare le difese tradizionali basate su firma.
Sfruttamenti zero-day e attacchi alla catena di approvvigionamento
Gli attori delle minacce celano in modo creativo codice pericoloso ed exploit zero-day per ampliare la distribuzione dell’attacco ed estenderne il raggio d’azione nascondendo il payload dannoso, ad esempio, all’interno di un modello di intelligenza artificiale costruito per svolgere funzioni legittime come l’autenticazione biometrica. In un altro scenario, gli attaccanti possono manipolare l’AI per apprendere gli algoritmi dei sistemi di intrusione delle minacce ed eluderne il rilevamento.
Credenziali e attacchi brute-force
Automatizzando il processo di accesso non autorizzato ad account e sistemi aziendali attraverso credenziali rubate e combinazioni di password comuni, l’intelligenza artificiale accelera l’attacco stesso. Inoltre, gli algoritmi di apprendimento automatico vengono utilizzati per eludere i sistemi di rilevamento e gli strumenti basati sull’intelligenza artificiale accelerano il cracking delle password analizzando gli schemi nei database di password trapelati.
Attacchi deepfake
Video e audio generati dall’AI impersonano voci e volti familiari per indurre le persone a compiere azioni che garantiscono l’accesso a dati, sistemi e fonti sensibili. La tecnologia alla base dei deepfake crea audio e immagini convincenti con input minimi raccolti tramite i social media o altre piattaforme pubbliche.
L’intelligenza artificiale ha il potere di amplificare l’impatto e la complessità degli attacchi, aumentando i danni e i rischi per i patrimoni di dati.
A cura di Vincenzo Costantino, Sr. Director South Western Europe, Sales Engineering, Commvault