Manca consapevolezza e regole precise: è questo il dato che emerge dalla ricerca “ChatGPT, alleato o nemico in ambito lavorativo?”, condotta da Kaspersky su 1.000 dipendenti italiani tra i 18 e i 55 anni. Più della metà dei dipendenti italiani ha preso in considerazione la possibilità di utilizzare in ambito lavorativo gli strumenti di intelligenza artificiale, come ad esempio ChatGPT, nonostante oltre il 40% non sia a conoscenza di come funzioni l’elaborazione delle informazioni. A questo si aggiunge il fatto che la maggioranza di coloro che la utilizza non sembra dare grande importanza alle problematiche legate alla privacy dei dati e alla veridicità dei contenuti e non ha informato, o pensa che non sia importante farlo, il proprio datore di lavoro.
Uno degli esempi più attuali di innovazione tecnologica è quello dell’intelligenza artificiale (AI) e in particolare ChatGPT, un modello linguistico alimentato appunto dall’AI. Diventato popolare in pochissimo tempo, l’implementazione di ChatGPT in ambito lavorativo è una grande opportunità se utilizzato nel rispetto delle linee guida aziendali e delle policy di sicurezza, altrimenti rappresenta un rischio nella gestione della privacy dei dati.
Secondo la ricerca Kaspersky “ChatGPT, alleato o nemico in ambito lavorativo?”, il 53% degli intervistati ha preso in considerazione l’utilizzo dell’intelligenza artificiale in ambito professionale e poco meno del 10% sta già sfruttando le potenzialità di questa nuova tecnologia. Quasi la metà concorda sul fatto che ChatGPT possa essere un valido aiuto nella creazione, revisione e traduzione di testi (48%) così come per annotazioni rapide, appunti durante le riunioni o riassunti (46%). Rimangono ancora attività meno sfruttate sviluppare e/o migliorare altre applicazioni di Intelligenza Artificiale, come chatbot (16%) o addirittura la scrittura di codice sorgente (9%)
Un dato allarmante che è emerso è che circa il 57% dei dirigenti o responsabili non sia a conoscenza dell’utilizzo dei tool di AI in azienda e che il 32% dei dipendenti ritenga che non sia necessario informarli. Questo dato non stupisce visto che il 77% degli intervistati nasconderebbe ai colleghi di utilizzare gli strumenti di intelligenza artificiale, o lo ha fatto.
Inoltre, più del 60% delle aziende italiane non ha definito linee guida o regole da seguire nell’utilizzo degli strumenti di AI, esponendo così l’azienda a possibili rischi e il 14% dei dipendenti delle aziende che invece lo hanno fatto si lamenta che queste regole siano poco chiare e comprensibili.
Un altro dato poco rassicurante che emerge dalla ricerca condotta da Kaspersky è che solamente il 13% sa esattamente come funziona l’elaborazione delle informazioni da parte di ChatGPT, mentre la maggioranza ne ha solo una vaga idea (44%) o nessuna conoscenza (43%). Inoltre, il 50% dichiara di condividere dati personali, informazioni destinate esclusivamente ad uso interno, documenti sensibili e molto altro. Di questi, circa il 20% non ritiene importante mantenere private le proprie ricerche, mentre addirittura il 30% pur sapendo che non bisogna condividere dati sensibili, lo fa ugualmente non anonimizzando le informazioni e rendendo quindi possibile che vengano ricondotte a un individuo o azienda specifica, con conseguenze importanti su privacy e sicurezza.
Anche la veridicità e l’autorevolezza dei contenuti ottenuti dagli strumenti di intelligenza artificiale non preoccupa troppo i dipendenti: il 49% è, infatti, disposto a utilizzare le risposte ottenute senza controllare la correttezza delle informazioni.
“Gli sviluppi nel campo dell’intelligenza artificiale sono stati estremamente rapidi e ChatGPT è diventato virale in pochissimo tempo, tutti volevano capire come funzionasse e provarne le funzionalità. La nostra ricerca dimostra come le aziende non siano ancora pronte per sfruttare le potenzialità di questa nuova tecnologia perché i dipendenti prendono con troppa leggerezza la condivisione di dati e informazioni sensibili così come la veridicità dei contenuti e i dirigenti non hanno la piena visibilità su come vengano utilizzati gli strumenti di AI all’interno dell’azienda e mancano regole e linee guida chiare e definite. Questa combinazione è molto pericolosa ed espone le aziende a grandi problemi legati alla privacy dei dati e alla verifica dei contenuti”, ha dichiarato Cesare D’Angelo, General Manager Italy & Mediterranean, Kaspersky.