Data protection

AI, Wiewiórowski (EDPS) ‘Ue non ancora pronta per il riconoscimento facciale’

di |

Il Garante Privacy europeo chiede maggior chiarezza su quale genere di intelligenza artificiale la Ue vuole regolare.

Il Garante Privacy europeo Wojciech Wiewiórowski (European Data Protection Supervisor) ritiene che l’Europa non sia ancora pronta per il riconoscimento facciale per il controllo pubblico delle persone.

“La società europea non è ancora pronta”, ha detto Wojciech Wiewiórowski told in un’intervista a Politico

La tecnologia e le sue applicazioni hanno diviso l’Europa. La proposta Ue di legislazione sull’AI mette al bando la maggior parte delle applicazioni di identificazione biometrica da remoto, a partire dal riconoscimento facciale nei luoghi pubblici dalle forze dell’ordine, ma fa delle eccezioni per combattere la criminalità “grave”, che potrebbe includere il terrorismo.

Leggi anche: Intelligenza artificiale affidabile ed etica. Le regole dell’Ue. Vestager: “Da noi no sorveglianza di massa”

Siamo pronti per un controllo permanente?

Chi sostiene l’uso della tecnologia, vale a dire le forze dell’ordine e alcuni governi più attenti alla sicurezza, dice che la polizia ha bisogno della tecnologia per catturare i criminali. Ma attivisti per la privacy, alcuni legislatori europei e lo stesso Wiewiórowski sono invece a favore di un divieto assoluto.

L’uso della tecnologia “trasformerebbe la società, trasformerebbe i nostri cittadini, trasformerebbe i luoghi in cui viviamo, in luoghi in cui siamo permanentemente riconoscibili… Non sono sicuro che la società sia davvero pronta per questo”, dice Wiewiórowski.

Attenzione alle deroghe

L’organizzazione da lui guidata, l’EDPS, è l’autorità interna per la protezione dei dati dell’UE, che garantisce che le singole agenzie nazionali dell’UE si attengano alle rigide norme sulla privacy del continente. Fornisce inoltre consulenza alla Commissione europea sulle sue iniziative legislative.

Wiewiórowski ha lanciato un monito: consentire delle eccezioni all’uso delle tecnologie potrebbe aprire la porta a tutti i tipi di sorveglianza, compreso il riconoscimento emotivo, e potrebbe essere aperto anche alle società private.

“Molti politici credono che l’uso di queste tecnologie debba essere consentito ad altre organizzazioni, altre entità, il che è un po’ sorprendente per me in realtà”, ha detto Wiewiórowski.

Essere più specifici

Wiewiórowski ha inoltre sottolineato che i legislatori devono ancora definire che cosa intendono esattamente per intelligenza artificiale che vogliono regolare, un fattore che potrebbe avere un peso significativo su quali aziende e quali applicazioni saranno regolamentate.

L’appello di Wiewiórowski è stato raccolto dai paesi della Ue, che a loro volta hanno chiesto definizioni più precise su quale tipo di intelligenza artificiale debba ricadere sotto la legislazione europea. Danimarca, Francia, Italia e altri paesi hanno lamentato che l’AI Act è troppo ampio, e rischia di imbrigliare modelli statistici di base in una regolamentazione pesante.

Riferendosi all’ampia rete della legislazione, Wiewiórowski ha affermato: “Stiamo usando la nozione di marketing dell’intelligenza artificiale per le tecnologie e sappiamo che la maggior parte di queste tecnologie non sono in realtà così intelligenti”.

“Dobbiamo stare più attenti a quello che pensiamo di ricomprendere e quello che resterà fuori dalla regolazione. Se qualcosa è sofisticato non significa che si tratti di intelligenza artificiale”, ha detto aggiungendo che in base all’attuale bozza di legge, sistemi che controllano i limiti di velocità in autostrada (autovelox ndr) rientrerebbero nella definizione di intelligenza artificiale.