etica e tech

Riconoscimento facciale. La scelta di IBM, la mossa di Amazon e il caso Como

di |

La vicenda Floyd ha fatto capire che è giunto il momento di un uso etico del riconoscimento facciale e in generale di un utilizzo responsabile delle nuove tecnologie?

Amazon ha annunciato che vieterà per un anno l’uso delle sue tecnologie per il riconoscimento facciale alla polizia. “Esortiamo i governi a varare leggi più severe sull’uso di queste tecnologie”, spiega l’azienda guidata da Jeff Bezos.

Amazon chiede ai governi legge più restrittive sul riconoscimento facciale, ma poi lo vieta solo per 1 anno alla polizia? 

La scelta di IBM

La sua ‘mossa’ arriva alcune ore dopo la scelta di IBM, che ha invocato “un dialogo nazionale” sull’utilizzo di queste piattaforme per “l’adozione di politiche tecnologiche responsabili”.

IBM ha annunciato “di stoppare l’uso del riconoscimento facciale per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali o qualsiasi altro scopo che non sia coerente con i nostri valori e principi di fiducia e trasparenza”.

Lo ha dichiarato il CEO della compagnia Arvind Krishnain una lettera inviata al Congresso americano, rivendicando la propria contrarietà all’uso di questa tecnologia utilizzata per la “sorveglianza di massa e la profilazione razziale” e considerata “discriminante dei diritti umani e delle libertà fondamentali” e chiedendo una legge per la giustizia razziale.

Anche oltre 250 dipendenti Microsoft hanno pubblicato una lettera aperta chiedendo alla loro azienda di fare lo stesso, ossia di annullare i contratti con la polizia per l’utilizzo del riconoscimento facciale.

Basterà 1 anno al Congresso Usa per una legge sul corretto uso del riconoscimento facciale?

Amazon così ha deciso di vietare alla polizia l’utilizzo della sua tecnologia di riconoscimento facciale Rekognition. La società ha spiegato di aver preso questa decisione per dare al Congresso degli Stati Uniti “tempo sufficiente per mettere a punto le regole appropriate” sull’uso etico di questa tecnologia.

L’annuncio di Amazon è arrivato nel pieno delle polemiche sul rischio che i software per il riconoscimento facciale aumentino il rischio di violazioni dei diritti umani su base razziale, mentre negli Stati Uniti continuano le proteste per la morte di George Floyd. Amazon ha fatto sapere comunque che consentirà di utilizzare Rekognition per monitorare il lavoro a favore delle vittime della tratta di esseri umani e per ritrovare bambini scomparsi.

I problemi di profilazione

La questione Floyd è la classica goccia che ha fatto traboccare il vaso in un settore, quello della profilazione dei cittadini, già finito più volte al centro delle polemiche. A febbraio scorso, l’elenco completo dei clienti di Clearview AI, la controversa app per il riconoscimento facciale utilizzata negli Usa anche da FBI e oltre 600 polizie a livello locale, è stato rubato da un criminal hacker.

Lo stesso Rekognition, software di Amazon Aws, a detta degli stessi sviluppatori, non si sa da quanti dipartimenti di polizia venga correntemente utilizzato.

A Londra, invece, il riconoscimento facciale è un flop totale. È utilizzato dalla polizia londinese in una delle vie shopping più trafficate della Capitale britannica. Su più di 8mila controlli soltanto una corrispondenza con i database criminali.

Ma poi l’Ue cosa ha deciso?

Il tema del riconoscimento facciale è anche al centro dell’agenda della Commissione Ue, che, inizialmente, aveva annunciato uno stop per 5 anni nei luoghi pubblici, ma poi il passo indietro:“Decidono gli Stati se vietarlo in spazi pubblici”.

Il riconoscimento facciale in Italia

In Italia il riconoscimento facciale è autorizzato, in via sperimentale, dal Garante privacy all’aeroporto di Milano Linate, dove è operativo dal 30 gennaio Face Boarding: un progetto sperimentale che consente ai passeggeri di effettuare i passaggi di sicurezza e d’imbarco attraverso un sistema di riconoscimento facciale.

Il caso del Comune di Como – interrogazione in Parlamento

Ma in questi giorni è scoppiato il caso del Comune di Como, che sarà oggetto di un’interrogazione parlamentare. Scrive Il Giorno “…abbiamo sollevato l’anomalia delle telecamere a riconoscimento facciale installate nel 2018 in viale Tokamachi e talmente piaciute a Palazzo Cernezzi da ordinarne altre 16. Il 9 maggio siamo tornati sull’argomento spiegando che l’Autorità Garante per la Protezione dei dati personali aveva ordinato al Comune di sospendere il loro utilizzo. Finalmente dell’irresistibile voglia di sicurezza scoppiata nel capoluogo, in barba alle leggi nazionali che proibiscono l’uso di sistemi di riconoscimento facciale, ha deciso di occuparsi anche la politica grazie a un’interrogazione presentata dalla deputata Dem Chiara Braga e dal collega Filippo Sensi. Merito del successo dell’esperimento iniziato nel 2019 nei giardini di fronte alla stazione San Giovanni, dove sono state collocate sei telecamere dotate di software in grado di riconoscere i volti. Il sistema è così evoluto da poter individuare nella zona sottoposto a controllo anche un oggetto da seguire, ad esempio una bicicletta rubata. Per adesso le ha fermate il Garante della Privacy, vedremo cosa vorrà fare il Governo”.