Analisi

5 minacce dell’AI che le aziende non vedono arrivare

di |

C’è un forte divario fra la conoscenza dei rischi connessi all’AI a livello manageriale e le contromisure adottate dalle aziende per affrontare queste minacce.

C’è un gap fra la conoscenza dei rischi connessi all’AI a livello manageriale e le contromisure adottate dalle aziende per affrontare queste minacce.

Il treno dell’intelligenza artificiale sta viaggiando molto veloce nel 2025 e i leader aziendali stanno facendo il massimo per affrontare al meglio i rischi operativi crescenti.

Privacy e sicurezza, il 56,4% degli incidenti connesso all’AI

Basti pensare ai dati del report del 2025 realizzato dalla Stanford University, secondo cui gli incidenti legati a privacy e sicurezza connessi all’AI sono cresciuti del 56,4% nel 2024.  

Lo studio ha individuato i data breach e gli errori algoritmici che hanno compromesso dati e informazioni sensibili come il tipo più comune e diffuso di incidente per l’AI.  

Ancora più allarmante è il divario tra la conoscenza del rischio legato all’IA a livello dirigenziale e le azioni specifiche intraprese dalle aziende per arginare tali minacce, nonostante gli esiti negativi, come sanzioni normative e danni irreparabili alla fiducia dei consumatori, siano incombenti.

Il 73% delle aziende ha subito un incidente sicurezza legato all’AI nel 2024

Il 73% delle aziende ha subito un incidente di sicurezza legato all’AI lo scorso anno, spesso senza rendersi conto delle vulnerabilità fino a quando non era troppo tardi.

Bug tecnici? In minima parte

Secondo gli esperti, il vero problema è che molti dirigenti associano il rischio legato all’AI a bug tecnici, trascurando i più ampi svantaggi umani, operativi e reputazionali, come il crollo del morale del personale, la disinformazione e la manipolazione degli avversari.

AI, problemi presso grandi brand

Diversi incidenti legati all’IA che hanno innescato problemi negativi presso grandi marchi, e non c’entra soltanto la tecnologia:

Lo strumento di reclutamento basato sull’IA di Amazon ha iniziato a declassare le candidate donne a causa di dati di formazione distorti.

Il chatbot Tay di Microsoft ha pubblicato contenuti offensivi a poche ore dal lancio a causa di scarse misure di sicurezza.

Un avvocato di New York ha presentato casi legali falsi generati da ChatGPT ed è stato multato.

Un chatbot Chevrolet ha erroneamente offerto nuovi SUV a 1 dollaro.

Questi esempi dimostrano che i rischi più significativi per l’IA derivano da punti ciechi nella dirigenza, non solo da fattori tecnologici.

Il primo passo per anticipare i rischi dell’IA è conoscere le minacce che presentano le sfide maggiori. Quartz ha parlato con esperti di management che hanno evidenziato specifici pericoli dell’IA per i quali tutte le aziende dovrebbero prepararsi.

1. Codice gonfio e vulnerabilità di sicurezza

L’uso dell’AI nello sviluppo software consente di generare codice rapidamente, ma spesso produce “bloat” – linee di codice inutili che ampliano la superficie di attacco e aumentano le vulnerabilità. I team di sicurezza faticano a tenere il passo con questo ritmo di sviluppo, creando colli di bottiglia e riducendo la protezione complessiva.

2. Minaccia dei deepfake

Le truffe basate su deepfake stanno crescendo, con malintenzionati che si spacciano per candidati reali tramite documenti falsi e video sintetici. Una volta infiltrati, possono sottrarre dati sensibili o proprietà intellettuale. I tradizionali processi di selezione non sono sufficienti a rilevare queste frodi, rendendo necessaria una verifica avanzata e multidisciplinare (cybersecurity, HR, digital forensics).

3. Comportamenti imprevisti dell’AI

Senza controlli adeguati, i sistemi AI possono interagire con altri strumenti, generando effetti inattesi come falsi allarmi o accessi a dati sensibili. Queste situazioni causano interruzioni operative e perdita di fiducia interna, con impatti anche su azionisti e reputazione aziendale.

4. AI non è un semplice upgrade

Molte aziende trattano l’AI come un aggiornamento software, ignorando il cambiamento culturale e collaborativo che comporta. Questo crea un “debito di connessione” tra capacità tecnologiche e competenze umane. Serve una formazione orientata alla collaborazione uomo-macchina e alla gestione della fiducia interna ed esterna.

5. Sindrome di allucinazione dell’AI

L’AI può inventare informazioni inesistenti, anche su dati aziendali reali. Questo porta a errori che si amplificano nelle decisioni strategiche. Il problema deriva dalla natura statistica dei modelli, privi di buon senso e contesto, con rischi significativi per il business.

Leggi le altre notizie sull’home page di Key4biz