I sistemi di raccomandazioni basate sull’IA (intelligenza artificiale) sono utilizzati in molti servizi online di cui beneficiamo oggi, compresi i motori di ricerca, i siti di shopping online, i servizi di streaming e i social media. Tuttavia, la loro crescente influenza su ciò che le persone vedono e fanno su Internet ha sollevato preoccupazioni circa la loro suscettibilità a vari tipi di abusi, come il loro utilizzo nella diffusione di disinformazione e nella promozione di teorie cospirative.
Andy Patel, un ricercatore del centro di eccellenza per l’intelligenza artificiale del fornitore di sicurezza informatica F-Secure, ha recentemente completato una serie di esperimenti per apprendere come semplici tecniche di manipolazione possano influenzare le raccomandazioni basate sull’IA su un social network.
Come sottolineato in una nota ufficiale dallo stesso Patel: «Twitter e altre reti sono diventati campi di battaglia in cui diverse persone e gruppi spingono diverse narrazioni. Queste includono conversazioni organiche e annunci, ma anche messaggi destinati a minare ed erodere la fiducia nelle informazioni legittime. Esaminare come questi “combattenti” possano manipolare l’IA aiuta a far emergere i limiti di ciò che l’intelligenza artificiale può realisticamente fare, e idealmente, come può essere migliorata».
I social media alle prese con raccomandazioni basate sull’IA manipolate
Un sondaggio del PEW Research Center condotto alla fine del 2020 ha scoperto che il 53% degli americani ottiene notizie dai social media. Gli intervistati di età compresa tra i 18 e i 29 anni hanno identificato i social media come la loro fonte più frequente di notizie. Allo stesso tempo, la ricerca ha evidenziato i potenziali rischi nell’affidarsi ai social media come fonte: un’indagine del 2018 ha scoperto che i post di Twitter contenenti falsità hanno il 70% di probabilità in più di essere retwittati.
Per la sua ricerca, Patel ha raccolto dati da Twitter e li ha utilizzati per addestrare modelli di filtraggio collaborativo (o collaborative filtering, un tipo di apprendimento automatico utilizzato per codificare le somiglianze tra utenti e contenuti in base alle interazioni precedenti) da utilizzare nei sistemi di raccomandazioni basati su IA. Poi, ha eseguito esperimenti che prevedevano il riaddestramento di questi modelli utilizzando set di dati contenenti retweet aggiuntivi (quindi avvelenando i dati) tra account selezionati per vedere come cambiavano le raccomandazioni.
Selezionando gli account appropriati per il retweet e variando il numero di account che eseguono retweet insieme al numero di retweet che hanno pubblicato, anche un numero molto piccolo di retweet era sufficiente a manipolare il sistema di raccomandazioni per promuovere gli account il cui contenuto è stato condiviso attraverso i retweet iniettati.
Mentre gli esperimenti sono stati condotti utilizzando versioni semplificate dei meccanismi di IA che le piattaforme di social media e altri siti web probabilmente impiegano quando forniscono raccomandazioni agli utenti, Patel ritiene che Twitter e molti altri servizi popolari stiano già affrontando questi attacchi nel mondo reale.
Come sostenuto da Patel: «Abbiamo eseguito test su modelli semplificati per comprendere meglio come i veri attacchi potrebbero effettivamente funzionare. Penso che le piattaforme di social media stiano già affrontando attacchi simili a quelli dimostrati in questa ricerca, ma per queste organizzazioni è difficile essere certi che questo è ciò che sta accadendo, perché vedono solo il risultato, non come funziona».
Come proteggere l’intelligenza artificiale da potenziali abusi
Secondo Matti Aksela, Vice President of Artificial Intelligence di F-Secure, è importante riconoscere e affrontare le potenziali sfide con la sicurezza dell’IA.
«Poiché ci affideremo sempre di più all’IA in futuro, dobbiamo capire cosa fare per proteggerla da potenziali abusi. Il fatto che l’IA e il machine learning alimentino in misura crescente i servizi da cui dipendiamo ci richiede di capirne i punti di forza e di debolezza in termini di sicurezza, oltre ai benefici che possiamo ottenere, in modo da poterci fidare dei risultati. L’IA sicura è il fondamento dell’IA affidabile» ha dichiarato Aksela.