Sicurezza

L’Europol vuole usare l’AI contro il crimine, ma quanti ostacoli

di |

L’Europol vuole accelerare sull’utilizzo dell’intelligenza artificiale per poter disporre di nuovi strumenti di lotta al crimine ma ci sono diversi ostacoli regolatori che ne frenano la diffusione.

L’Europol vuole accelerare sull’utilizzo dell’intelligenza artificiale per poter disporre di nuovi strumenti di lotta al crimine ma ci sono diversi ostacoli. Lo ha detto a Politico il vicedirettore Jürgen Ebner descrivendo però una sorta di paradosso: se da un lato i criminali si stanno divertendo “da morire” con “l’impiego doloso dell’IA”, dall’altro invece le autorità di polizia dell’agenzia europea Europol sono oberate da una miriade di controlli e freni legali quando cercano di utilizzare la nuova tecnologia.

Le autorità devono costantemente sottoporsi a valutazioni sulla protezione dei dati e sui diritti fondamentali ai sensi del diritto dell’UE. Tali controlli possono ritardare l’uso dell’AI fino a otto mesi, ha detto Ebner. Accelerare il processo potrebbe fare la differenza in situazioni urgenti in cui vi è una “minaccia per la vita”, ha aggiunto.

Tecnologie contro il crimine in mano all’Europol

L’agenzia di polizia europea ha sviluppato le proprie capacità tecnologiche negli ultimi anni, spaziando dall’elaborazione di big data alla decifratura delle comunicazioni tra criminali. Le autorità sono ansiose di rispondere al fuoco con il fuoco in un mondo in cui l’AI sta rapidamente incrementando la criminalità informatica. Ma accademici e attivisti hanno ripetutamente espresso preoccupazione per la possibilità di dare alle autorità carta bianca nell’uso illimitato dell’AI.

La Presidente della Commissione Europea Ursula von der Leyen ha promesso di raddoppiare il personale di Europol e di trasformarlo in una potenza nella lotta ai gruppi criminali “che navigano costantemente tra il mondo fisico e quello digitale”. L’ultimo programma di lavoro della Commissione prevede che ciò si concretizzerà in una proposta legislativa per rafforzare Europol nel secondo trimestre del 2026.

Chieste procedure accelerate per uso urgente dell’AI nell’Europol

Intervenendo a Malta in occasione di un recente incontro di esperti in protezione dei dati provenienti da tutte le forze di polizia europee, Ebner ha detto che è “assolutamente essenziale” che esista una procedura accelerata che consenta alle forze dell’ordine di impiegare strumenti di intelligenza artificiale in situazioni di “emergenza” senza dover seguire una “procedura di conformità molto complessa”.

Il GDPR rallenta il processo?

Valutare l’impatto di uno strumento di intelligenza artificiale sulla protezione dei dati e sui diritti fondamentali è obbligatorio ai sensi del Regolamento generale sulla protezione dei dati (GDPR) e della legge sull’intelligenza artificiale dell’UE. Ebner ha detto che questi processi possono richiedere dai sei agli otto mesi.

Riconoscimento facciale, esenzioni al divieto per reati gravi

Il capo della polizia ha chiarito che una procedura di emergenza più rapida non eluderebbe i limiti imposti dagli strumenti di intelligenza artificiale in materia di profilazione o riconoscimento facciale in tempo reale. Le autorità di contrasto beneficiano già di diverse esenzioni ai sensi della legge sull’intelligenza artificiale (legge sull’AI) dell’UE. Secondo queste norme, l’uso del riconoscimento facciale in tempo reale negli spazi pubblici è vietato alle forze dell’ordine, ma i paesi dell’UE possono comunque consentire eccezioni, soprattutto per i reati più gravi.

Legislatori e gruppi per i diritti digitali hanno espresso preoccupazione per queste eccezioni, garantite dai paesi dell’UE durante la negoziazione della legge.

Poteri di polizia digitale

Ebner, che sovrintende alle questioni di governance presso Europol, ha detto che “quasi tutte le indagini” ora hanno una dimensione online.

Gli investimenti in tecnologia e innovazione per tenere il passo con la criminalità stanno imponendo un “enorme onere alle forze dell’ordine”, ha aggiunto.

La Presidente della Commissione europea Ursula von der Leyen ha promesso di voler più che raddoppiare il personale di Europol e di volerla trasformarla in una potenza nella lotta ai gruppi criminali.

FAQ tematiche

1 — Potenzialità dell’Intelligenza Artificiale nelle attività di polizia

Q: In che modo l’AI può trasformare il lavoro delle forze dell’ordine?
L’AI può analizzare enormi quantità di dati, identificare schemi criminali e ricavare informazioni utili per le indagini più rapidamente rispetto ai metodi tradizionali.

Q: Che ruolo hanno biometria e AI nella lotta alla criminalità?
La combinazione di AI e biometria permette l’identificazione rapida e accurata dei sospetti, riducendo al minimo gli errori e tutelando allo stesso tempo la privacy delle persone non coinvolte.

Q: L’AI può aiutare nella gestione delle risorse operative?
Sì. Grazie all’analisi dei dati, l’AI migliora la pianificazione delle risorse e l’efficienza delle operazioni sul territorio.

Q: Che vantaggi offre l’AI generativa?
L’AI generativa permette di passare dalla semplice analisi dei dati alla creazione di contenuti utili per le indagini (es. ricostruzioni, simulazioni di scenari), aprendo nuove opportunità investigative.

TEMA 2 — Utilizzo dell’AI in OSINT e SOCMINT

Q: Perché l’AI è utile nell’analisi di informazioni da fonti aperte (OSINT) o social (SOCMINT)?
Perché riesce a processare grandi volumi di dati non strutturati in tempo reale, migliorando la capacità di risposta a situazioni urgenti, come terrorismo o crimini contro minori.

Q: L’AI supporta la cooperazione internazionale tra forze di polizia?
Sì, grazie anche a strumenti come la traduzione automatica, essenziale per lo scambio di informazioni tra autorità di diversi paesi.

TEMA 3 — Privacy, trasparenza e responsabilità

Q: L’AI mette a rischio la privacy delle persone?
Non necessariamente. Le tecnologie possono essere progettate per proteggere le informazioni personali e limitare l’uso dei dati ai soli casi rilevanti.

Q: Perché trasparenza ed explainability sono importanti?
Perché permettono di capire come l’AI prende decisioni — un aspetto fondamentale per garantire processi equi, rispettare il diritto a un giusto processo e rendere ammissibili le prove in tribunale.

Q: Gli strumenti di AI devono essere controllati periodicamente?
Sì. Sono necessari audit regolari per verificare che rispettino le norme su privacy e protezione dei dati.

TEMA 4 — Rischi e sfide nell’adozione dell’AI

Q: Qual è il principale rischio legato all’uso dell’AI da parte della polizia?
Il rischio di bias (pregiudizio) nei dati, che potrebbe portare a decisioni non imparziali o discriminatorie.

Q: L’AI richiede particolari competenze nelle forze dell’ordine?
Sì. È necessario formare il personale su uso corretto dei dati, etica, privacy e responsabilità nell’utilizzo degli strumenti AI.

Q: Le piccole forze di polizia possono incontrare difficoltà nell’adozione dell’AI?
Sì. Spesso mancano infrastrutture tecnologiche e risorse economiche per sviluppare e gestire sistemi complessi.

TEMA 5 — Conformità al Regolamento Europeo sull’AI (EU AI Act)

Q: Che cosa implica l’EU AI Act per le forze dell’ordine?
Impone nuovi obblighi per garantire che l’AI sia utilizzata nel rispetto di privacy, etica e legalità.

Q: Le tecnologie AI già in uso dovranno essere rivalutate?
Sì. Gli strumenti già operativi devono essere verificati e, se rientrano tra quelli vietati, dovranno essere disattivati.

Q: Qual è la sfida più grande posta dall’AI Act?
Trovare un equilibrio tra innovazione tecnologica ed esigenze di sicurezza, rispettando nello stesso tempo i diritti fondamentali dei cittadini.

Leggi le altre notizie sull’home page di Key4biz