Attenta a definire i principi per lo sviluppo etico e l’uso responsabile dell’IA nella cybersecurity, Kaspersky ha presentato i suoi principi etici.
Si consolida così l’impegno della società ad adottare un approccio trasparente e responsabile nei confronti dello sviluppo tecnologico.
Poiché gli algoritmi IA giocano un ruolo sempre più importante nella sicurezza informatica, i principi etici contenuti nel whitepaper spiegano come l’azienda garantisca l’affidabilità delle proprie tecnologie basate sull’IA. E forniscono una guida agli altri operatori del settore sulla mitigazione dei rischi associati all’utilizzo degli algoritmi IA/ML. La discussione è stata avviata da Kaspersky nell’ambito dell’Internet Governance Forum delle Nazioni Unite, che si chiude oggi in Giappone. Quest’ultimo riunisce i maggiori esperti mondiali responsabili della governance di internet.
Da oltre 20 anni Kaspersky utilizza gli algoritmi ML, sottoinsieme dell’IA, nelle proprie soluzioni. La combinazione tra le potenzialità dell’intelligenza artificiale e le competenze umane ha permesso alle soluzioni di Kaspersky di rilevare e contrastare efficacemente le nuove minacce. In questo senso, il machine learning gioca un ruolo importante nell’automatizzazione del rilevamento delle minacce e del riconoscimento delle anomalie. Il tutto migliorando la precisione nell’identificazione dei malware.
Principi etici per lo sviluppo e l’utilizzo di IA/ML
Per favorire l’innovazione, Kaspersky ha definito una serie di principi etici per lo sviluppo e l’utilizzo di IA/ML. Gli stessi che la società condivide con tutto il settore per dare impulso a un confronto volto a garantire che l’IA venga utilizzata per rendere il mondo migliore.
Secondo Kaspersky, lo sviluppo e l’utilizzo continuativo di IA/ML dovrebbe tenere in considerazione i seguenti sei principi:
- Trasparenza
- Sicurezza
- Controllo umano
- Privacy
- Impegno per la sicurezza informatica
- Apertura al dialogo
Il principio della trasparenza rappresenta la profonda convinzione di Kaspersky che le aziende debbano informare i propri clienti in merito all’utilizzo delle tecnologie IA/ML nei propri prodotti e servizi. In Kaspersky viene rispettato questo principio, sviluppando sistemi IA/ML facilmente comprensibili e condividendo con gli stakeholder le informazioni sul funzionamento e sull’uso delle tecnologie IA/ML nelle soluzioni aziendali.
Le preoccupazioni sulla sicurezza si riflettono in un’ampia gamma di rigorose misure che Kaspersky implementa per assicurare la qualità dei propri sistemi IA/ML. Tra queste, audit specifici per l’IA/ML, iniziative per ridurre al minimo la dipendenza da dataset di terze parti nel processo di apprendimento delle soluzioni di IA e privilegiare le tecnologie di ML basate su.
L’uomo come elemento essenziale di tutti i propri sistemi IA/ML
L’importanza del controllo umano si spiega con la necessità di ottimizzare il lavoro dei sistemi IA/ML quando si tratta di analizzare minacce complesse. Soprattutto le Advanced Persistent Threats (APT). Per fornire una protezione efficace contro le minacce in continua evoluzione, Kaspersky si impegna a garantire il controllo da parte dell’uomo come elemento essenziale di tutti i propri sistemi IA/ML.
Un altro principio fondamentale è garantire il diritto alla privacy nell’uso etico di IA/ML. Con i big data che giocano un ruolo essenziale nel processo di addestramento di questi sistemi, le aziende che utilizzano l’IA/ML devono sempre tenere in considerazione la privacy dei singoli individui. Impegnata nel rispetto del diritto alla privacy, Kaspersky applica numerose misure tecniche e organizzative per proteggere i dati e i sistemi e garantisce che il diritto alla privacy dei propri utenti sia esercitato in modo corretto.
Il quinto principio etico corrisponde all’impegno di Kaspersky nell’utilizzare i sistemi IA/ML esclusivamente per scopi difensivi. In questo modo, l’azienda prosegue nella propria missione volta a costruire un mondo più sicuro e dimostra il proprio impegno a proteggere gli utenti e i p dati.
Infine, l’ultimo principio di riferisce alla disponibilità di Kaspersky al dialogo con tutti gli stakeholder per condividere le best practice nell’utilizzo etico dell’IA. A questo proposito, Kaspersky è pronta a confrontarsi con tutte le parti interessate, poiché l’azienda ritiene che solo attraverso una collaborazione costante tra tutti gli stakeholder sia possibile superare gli ostacoli, promuovere l’innovazione e aprirsi a nuovi orizzonti.
I principi etici servono: l’intelligenza artificiale non è priva di rischi
Anton Ivanov, Kaspersky CTO, ha dichiarato: “L’intelligenza artificiale può potenzialmente portare molti vantaggi al settore della cybersecurity, migliorando ulteriormente la resilienza informatica nella nostra società. Ma, come per tutte le tecnologie nelle fasi iniziali dello sviluppo, l’intelligenza artificiale non è priva di rischi. Per affrontare le preoccupazioni legate all’IA, Kaspersky ha presentato i suoi principi etici, così da condividere le proprie best practice sull’applicazione dell’IA. Ma anche per invitare tutto il settore a un dialogo aperto, attraverso il quale possano essere sviluppate delle linee guida chiare su quali siano le riflessioni che lo sviluppo di soluzioni basate su IA e ML dovrebbe tenere in considerazione per essere definito etico”.