L’intelligenza artificiale sta entrando in una fase in cui la potenza di calcolo, la capacità dei modelli e la loro diffusione crescono più velocemente delle strutture di controllo. Entro il 2030 i sistemi saranno più autonomi, multimodali e integrati nei processi decisionali pubblici e privati. La traiettoria, però, non è neutra: aumenta la scala dei benefici, ma crescono anche i rischi sistemici, dalla disinformazione automatizzata alla vulnerabilità delle infrastrutture critiche.
È questo il quadro che emerge dall’International AI safety report 2026, seconda edizione del rapporto internazionale sulla sicurezza dell’intelligenza artificiale, guidato dallo scienziato Yoshua Bengio e sviluppato con il contributo di oltre 100 esperti e dei rappresentanti di oltre 30 Paesi. Pubblicato dal Department for Science, Innovation and Technology del Regno Unito, il report offre una valutazione indipendente dei rischi emergenti e delle misure di mitigazione necessarie. Si inserisce in un percorso di monitoraggio periodico sull’evoluzione dei modelli avanzati e dei loro impatti, con uno sguardo proiettato al 2030.
Modelli più grandi, capacità più autonome
Uno dei trend centrali riguarda la crescita esponenziale delle capacità dei modelli AI più avanzati oggi disponibili, i cosiddetti modelli di frontiera. Negli ultimi anni la potenza di calcolo utilizzata per l’addestramento è aumentata di ordini di grandezza e il report stima che, mantenendo l’attuale ritmo di investimento, entro il 2030 i sistemi potrebbero superare significativamente le performance umane in un numero crescente di compiti cognitivi complessi.
I modelli stanno diventando agenti capaci di pianificare, eseguire azioni in ambienti digitali, interagire con altri sistemi e apprendere in modo continuo. La potenza di calcolo usata per addestrare le AI è cresciuta in modo esponenziale dal 2012 al 2025.
L’integrazione tra linguaggio, visione, codice e dati in tempo reale rende plausibile uno scenario in cui l’AI sarà incorporata nei flussi decisionali aziendali, nella ricerca scientifica, nella gestione delle reti energetiche o finanziarie.
Il Rapporto sottolinea però che l’aumento delle capacità comporta anche un aumento della imprevedibilità. Sistemi più complessi possono sviluppare comportamenti inattesi o difficili da interpretare. La ricerca sulla robustezza, sull’allineamento agli obiettivi umani e sulla trasparenza procede, ma non alla stessa velocità con cui vengono sviluppati e rilasciati nuovi modelli sempre più potenti. Gli incidenti legati alla generazione automatica di contenuti sono aumentati negli ultimi anni. Il grafico qui sotto riporta i casi registrati nel database AI Incidents and Hazards Monitor dell’Ocse.
Rischi sistemici: dalla disinformazione alle infrastrutture critiche
Guardando al 2030, il documento individua alcune aree di rischio che potrebbero intensificarsi.
La prima è la produzione su larga scala di contenuti artificiali indistinguibili dal reale. Con modelli sempre più sofisticati, la generazione automatica di testi, immagini, audio e video potrebbe rendere strutturale la difficoltà di distinguere informazione e manipolazione.
Allo stesso tempo, la disinformazione assistita dall’AI può diventare più mirata, personalizzata e difficile da tracciare, con impatti potenziali su processi elettorali, mercati finanziari e coesione sociale. L’automazione consente di moltiplicare contenuti e interazioni a costi marginali bassissimi.
Un secondo ambito riguarda la sicurezza informatica. I sistemi di AI possono essere utilizzati sia per rafforzare le difese sia per automatizzare attacchi complessi. Entro il 2030, l’uso di modelli avanzati per identificare vulnerabilità, scrivere codice malevolo o orchestrare campagne di phishing sofisticate potrebbe aumentare il livello di esposizione di imprese e infrastrutture critiche.
Il Rapporto richiama anche il tema delle applicazioni in ambito biologico e chimico. L’accesso a strumenti di modellazione avanzata può accelerare la ricerca scientifica, ma solleva interrogativi sulla possibilità di utilizzi impropri. La diffusione di capacità avanzate richiede quindi controlli, monitoraggio e cooperazione internazionale.
Governance e capacità istituzionale
Un altro filone riguarda la distanza tra sviluppo tecnologico e capacità di regolazione. Il documento osserva che, sebbene siano in corso iniziative normative in diverse aree del mondo, la governance globale dell’AI resta frammentata. Le imprese leader concentrano risorse, dati e potenza di calcolo, mentre le istituzioni pubbliche faticano a dotarsi delle competenze tecniche necessarie per valutare e supervisionare modelli sempre più complessi.Entro il 2030, secondo il documento, sarà cruciale rafforzare tre dimensioni:
- la trasparenza sui processi di addestramento e sulle capacità dei modelli;
- i meccanismi di auditing indipendente;
- la cooperazione internazionale sui rischi transfrontalieri.
Senza un coordinamento efficace, la competizione geopolitica potrebbe incentivare una corsa all’innovazione con minori vincoli di sicurezza. La traiettoria verso il 2030 non è dunque predeterminata. Dipenderà dalle scelte di investimento in sicurezza, dalla qualità delle regole e dalla capacità di integrare la gestione del rischio nei processi di sviluppo. La finestra temporale dei prossimi cinque anni appare, nella lettura del documento, decisiva. L’innovazione continuerà a correre. La questione è se la sicurezza saprà tenere il passo.
