C’è un gap fra la conoscenza dei rischi connessi all’AI a livello manageriale e le contromisure adottate dalle aziende per affrontare queste minacce.
Il treno dell’intelligenza artificiale sta viaggiando molto veloce nel 2025 e i leader aziendali stanno facendo il massimo per affrontare al meglio i rischi operativi crescenti.
Privacy e sicurezza, il 56,4% degli incidenti connesso all’AI
Basti pensare ai dati del report del 2025 realizzato dalla Stanford University, secondo cui gli incidenti legati a privacy e sicurezza connessi all’AI sono cresciuti del 56,4% nel 2024.
Lo studio ha individuato i data breach e gli errori algoritmici che hanno compromesso dati e informazioni sensibili come il tipo più comune e diffuso di incidente per l’AI.
Ancora più allarmante è il divario tra la conoscenza del rischio legato all’IA a livello dirigenziale e le azioni specifiche intraprese dalle aziende per arginare tali minacce, nonostante gli esiti negativi, come sanzioni normative e danni irreparabili alla fiducia dei consumatori, siano incombenti.
Il 73% delle aziende ha subito un incidente sicurezza legato all’AI nel 2024
Il 73% delle aziende ha subito un incidente di sicurezza legato all’AI lo scorso anno, spesso senza rendersi conto delle vulnerabilità fino a quando non era troppo tardi.
Bug tecnici? In minima parte
Secondo gli esperti, il vero problema è che molti dirigenti associano il rischio legato all’AI a bug tecnici, trascurando i più ampi svantaggi umani, operativi e reputazionali, come il crollo del morale del personale, la disinformazione e la manipolazione degli avversari.
AI, problemi presso grandi brand
Diversi incidenti legati all’IA che hanno innescato problemi negativi presso grandi marchi, e non c’entra soltanto la tecnologia:
Lo strumento di reclutamento basato sull’IA di Amazon ha iniziato a declassare le candidate donne a causa di dati di formazione distorti.
Il chatbot Tay di Microsoft ha pubblicato contenuti offensivi a poche ore dal lancio a causa di scarse misure di sicurezza.
Un avvocato di New York ha presentato casi legali falsi generati da ChatGPT ed è stato multato.
Un chatbot Chevrolet ha erroneamente offerto nuovi SUV a 1 dollaro.
Questi esempi dimostrano che i rischi più significativi per l’IA derivano da punti ciechi nella dirigenza, non solo da fattori tecnologici.
Il primo passo per anticipare i rischi dell’IA è conoscere le minacce che presentano le sfide maggiori. Quartz ha parlato con esperti di management che hanno evidenziato specifici pericoli dell’IA per i quali tutte le aziende dovrebbero prepararsi.
1. Codice gonfio e vulnerabilità di sicurezza
L’uso dell’AI nello sviluppo software consente di generare codice rapidamente, ma spesso produce “bloat” – linee di codice inutili che ampliano la superficie di attacco e aumentano le vulnerabilità. I team di sicurezza faticano a tenere il passo con questo ritmo di sviluppo, creando colli di bottiglia e riducendo la protezione complessiva.
2. Minaccia dei deepfake
Le truffe basate su deepfake stanno crescendo, con malintenzionati che si spacciano per candidati reali tramite documenti falsi e video sintetici. Una volta infiltrati, possono sottrarre dati sensibili o proprietà intellettuale. I tradizionali processi di selezione non sono sufficienti a rilevare queste frodi, rendendo necessaria una verifica avanzata e multidisciplinare (cybersecurity, HR, digital forensics).
3. Comportamenti imprevisti dell’AI
Senza controlli adeguati, i sistemi AI possono interagire con altri strumenti, generando effetti inattesi come falsi allarmi o accessi a dati sensibili. Queste situazioni causano interruzioni operative e perdita di fiducia interna, con impatti anche su azionisti e reputazione aziendale.
4. AI non è un semplice upgrade
Molte aziende trattano l’AI come un aggiornamento software, ignorando il cambiamento culturale e collaborativo che comporta. Questo crea un “debito di connessione” tra capacità tecnologiche e competenze umane. Serve una formazione orientata alla collaborazione uomo-macchina e alla gestione della fiducia interna ed esterna.
5. Sindrome di allucinazione dell’AI
L’AI può inventare informazioni inesistenti, anche su dati aziendali reali. Questo porta a errori che si amplificano nelle decisioni strategiche. Il problema deriva dalla natura statistica dei modelli, privi di buon senso e contesto, con rischi significativi per il business.