Key4biz

AI, ok dell’Europarlamento alle nuove regole. Dibattito solo all’inizio, tempi più stretti per ChatGPT?

riconoscimento facciale-

Via libera dall’Eurocamera all’Ai Act, il testo che racchiude le nuove regole Ue per l’Intelligenza artificiale. L’aula di Strasburgo ha approvato con 499 voti a favore 28 contrari e 93 astenuti la prima regolamentazione al mondo pensata per imprimere alle tecnologie come ChatGpt il rispetto delle leggi Ue e dei valori fondamentali e per combattere la discriminazione digitale e prevenire la disinformazione e l’utilizzo dei ‘deep fakes’. Il voto apre la strada ai triloghi con i Paesi membri e la Commissione Ue. I tempi saranno più stretti, con una sorta di corsia preferenziale, per ChatGPT: Bruxelles sta valutando di anticipare l’applicazione del Regolamento nei primi mesi del 2024 soltanto per ChatGpt e simili.

Europarlamento, divieto totale di riconoscimento facciale

L’europarlamento sostiene il divieto totale di utilizzo di tecnologie di riconoscimento biometrico ad intelligenza artificiale in tempo reale nei luoghi pubblici. È stato bocciato l’emendamento del Partito popolare europeo (Ppe) che chiedeva di inserire nell’AI Act alcune eccezioni per permettere l’uso di telecamere riconoscimento facciale nelle strade e ai confine dell’Ue per motivi di sicurezza nazionale o nei casi di minori scomparsi. Anche la Commissione Ue (in particolare la commissaria alla Concorrenza Margrethe Vestager) vorrebbe alcune eccezioni in casi estremi, ad esempio in caso di terrorismo o di rapimento di un minore. Ma ci sarà tempo per un dibattito che si preannuncia molto interessante. Il primo negoziato è previsto già per questa sera.

Leggi anche: AI Act, Benifei: “Ok a Regolamento inizi 2024. Valutiamo come poi applicarlo subito a ChatGPT e simili”

Democrazia Futura. La primavera dell’intelligenza artificiale e la bozza di regolamento europeo AI Act

IA, 350 leader del settore: “Senza controllo rischiamo l’estinzione”

Secondo il 59% degli italiani l’IA deve essere regolamentata

IA: Parlamento Ue vieta riconoscimento facciale in luoghi pubblici

L’europarlamento sostiene il divieto totale di utilizzo di tecnologie di riconoscimento biometrico ad intelligenza artificiale in tempo reale nei luoghi pubblici. E’ stato bocciato l’emendamento del Ppe che chiedeva di inserire nell’AiAct, il testo che racchiude le nuove regole Ue per l’Intelligenza artificiale, alcune eccezioni per permettere l’uso di telecamere riconoscimento facciale nelle strade e ai confine dell’Ue per motivi di sicurezza nazionale o nei casi di minori scomparsi.

Vietato il social scoring

Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che può generare. Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali, come avviene invece in Cina).

Vietato il riconoscimento delle emozioni

I deputati, rispetto al testo iniziale, hanno ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’IA, come: l’uso di sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico; i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati); i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione; e l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

Vietati sistemi di influenza politica

Il testo approvato dal Parlamento europeo prevede che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente. Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).

Per Chat GPT obbligo di trasparenza

I sistemi di IA generativa che si basano su tali modelli, quali ChatGPT, secondo il testo, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall’IA), aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento.

Dovrebbero essere rese pubbliche anche sintesi dettagliate dei dati protetti da copyright che sono stati utilizzati. Per promuovere l’innovazione dell’Ia e sostenere le piccole e medie imprese, i deputati hanno aggiunto esenzioni per le attività di ricerca e i componenti dell’Ia forniti con licenze open source, a codice sorgente aperto. La nuova legge promuove i cosiddetti sandbox normativi, o ambienti di vita reale, istituiti dalle autorità pubbliche per testare l’intelligenza artificiale prima che venga implementata.

Infine, i deputati vogliono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di Ia e ricevere spiegazioni delle decisioni basate su sistemi di Ia ad alto rischio che incidono in modo significativo sui loro diritti fondamentali. I deputati hanno anche riformato il ruolo dell’Ufficio dell’Ue, che avrebbe il compito di monitorare l’attuazione del regolamento sull’Intelligenza Artificiale. Ora inizieranno i negoziati interistituzionali con il Consiglio per dare forma definitiva alla legge, nelle intenzioni entro fine anno.

Ai: Vestager, noi per riconoscimento facciale contro terrorismo

“Quando abbiamo sviluppato la proposta” di regolamento europeo sull’intelligenza artificiale “il nostro approccio era quello di vietare come principio l’uso dell’identificazione biometrica in tempo reale negli spazi pubblici. Ma con alcune eccezioni molto attente, per esempio se la polizia sta cercando un bambino o se c’è un’emergenza terrorismo con persone in fuga da trovare”. Lo ha dichiarato la vice presidente della Commissione europea, Margrethe Vestager, dopo il voto al Parlamento europeo che ha bocciato tutte le possibilità di riconoscimento facciale in tempo reale in spazi pubblici. “Il Parlamento ha un’opinione diversa mentre il Consiglio e’ in linea con la posizione della Commissione. Ora dipendera’ dai negoziato dove si trovera’ il punto di incontro nelle prossime settimane e nei prossimi mesi”, ha aggiunto Vestager.

‘Agire in fretta

“L’intelligenza artificiale solleva molte domande: dal punto di vista sociale, etico ed economico. (…) Si tratta di agire rapidamente e assumersi la responsabilità”, ha affermato il commissario al mercato interno Thierry Breton. Ma il regolamento non entrerà in vigore prima del 2026, nel migliore dei casi. Ritenendo che ci fosse urgenza, Thierry Breton e Margrethe Vestager hanno annunciato la loro intenzione di ottenere impegni volontari dalle aziende il più rapidamente possibile.

Di grande complessità tecnica, i sistemi di intelligenza artificiale affascinano quanto preoccupano. Mentre possono salvare vite scavalcando le diagnosi mediche, vengono anche sfruttate da regimi autoritari per esercitare una sorveglianza di massa sui cittadini.

Exit mobile version