l'approfondimento

Diritti e doveri dell’Intelligenza Artificiale: a che punto siamo?

di |

In questo articolo approfondiremo le norme più recenti – AI Bill of Rights e AI Act – che dovrebbero già nei prossimi anni diventare il punto di riferimento per la regolamentazione dell’Intelligenza Artificiale nel mondo.

Digital Customer Experience (DCX) è una rubrica settimanale dedicata alla Digital Experience a cura di Dario Melpignano, Ceo di Neosperience. Per consultare gli articoli precedenti, clicca qui. Per la versione inglese vai al blog.

L’Intelligenza Artificiale ormai è entrata nella nostra vita di tutti i giorni: per mano dell’iniziativa privata, gli algoritmi oggi regolano il nostro comportamento sui social, le preferenze per film e giochi, la possibilità di richiedere un mutuo, l’esito di un colloquio di lavoro, e così via.

L’opinione pubblica e le istituzioni si trovano nella situazione di dover bilanciare gli innumerevoli vantaggi che le AI offrono con i rischi che comportano per i nostri diritti. È quindi nata la necessità, tanto in Unione Europea quanto negli USA, di regolamentare l’utilizzo delle Intelligenze Artificiali su più fronti.

In questo articolo approfondiremo le norme più recenti – AI Bill of Rights e AI Act – che dovrebbero già nei prossimi anni diventare il punto di riferimento per la regolamentazione dell’Intelligenza Artificiale nel mondo.

Intelligenza artificiale: AI Bill of Rights

Stilato dall’Ufficio per le politiche scientifiche e tecnologiche della Casa Bianca a inizio ottobre 2022, l’AI Bill of Rights contiene una serie di raccomandazioni non vincolanti, destinate alle aziende e alle organizzazioni governative, per l’utilizzo ottimale dell’Intelligenza Artificiale e dei sistemi automatizzati ad essa connessi.

L’AI Bill of Rights delinea 5 princìpi, modellati sull’applicazione nel settore pubblico statunitense, ma applicabili anche a contesti più ampi.

1) Sistemi sicuri ed efficaci: per la protezione del singolo e della comunità, i sistemi automatizzati dovrebbero essere sottoposti atest indipendenti di valutazione dell’efficacia e della sicurezza;

2) Protezioni contro la discriminazione algoritmica: le Intelligenze Artificiali dovrebbero essere progettate e utilizzate in modo equo, senza disparità di trattamento in base a criteri etnici, social ie culturali;

3) Protezione dei dati personali: i sistemi automatizzati dovrebbero contenere by design opzioni relative alla protezione dei dati personali e della privacy degli utenti e prevedere il consenso esplicito da parte dell’utente;

4) Avvisi e spiegazioni: bisognerebbe sempre sapere se e quando ci si sta interfacciando con un sistema automatizzato, quali sono le basi del suo funzionamento e gli eventuali impatti dell’interazione;

5) Alternative umane, valutazioni e riserve: I cittadini dovrebbero essere sempre in grado di scegliere un’alternativa umana a un sistema automatizzato, in particolare negli ambiti più sensibili come la giustizia penale, le risorse umane, l’istruzione e la salute.

AI Act

L’AI Bill Of Rights rappresenta un importante segnale da parte degli Stati Uniti, superpotenza mondiale culla delle Big Tech, ma l’Unione Europea ha già compiuto diversi passi avanti grazie all’AI Act.

L’, presentato nella primavera del 2021 e attualmente in fase di discussione, l’AI Act è un atto legislativo che punta ad applicare il principio della trasparenza e del rispetto dei diritti umani all’intero settore dell’AI, in accordo alla normativa vigente negli Stati membri e con il Regolamento Generale sulla Protezione dei Dati (GDPR).

Il testo dell’AI Act suddivide le intelligenze artificiali in quattro classi di rischio, calcolate proporzionalmente in base alle potenziali minacce alla salute, alla sicurezza o a diritti fondamentali delle persone come la presunzione di innocenza.

Rischio inaccettabile

Sono da ritenersi proibite in Unione Europea le Intelligenze Artificiali che fanno uso di pratiche come la profilazione per fini coercitivi o di social scoring, oppure utilizzano tecniche subliminali per provocare danni fisici o psicologici.

Rischio elevato

Rientrano in questa categoria i sistemi che possono influire in modo significativo sull’andamento della democrazia o sulla salute individuale o collettiva, tra cui:

  • I sistemi utilizzati nell’istruzione o nella formazione professionale per la valutazione delle prove o l’accesso agli istituti;
  • I sistemi di assegnazione di decisioni nei rapporti di lavoro e in ambito creditizio;
  • I sistemi destinati all’amministrazione della giustizia;
  • I sistemi destinati all’utilizzo nella gestione della migrazione, dell’asilo e del controllo delle frontiere.

Le Intelligenze Artificiali ad alto rischio potranno essere immesse sul mercato solo se rispettano una serie di requisiti obbligatori orizzontali che ne garantiscano l’affidabilità e se avranno superato diverse procedure di valutazione di conformità.

Rischio limitato

Sistemi di Intelligenza Artificiale come i chatbot o i deepfake possono originare un rischio di manipolazione quando la natura dell’agente conversazionale non è resa chiara all’utente.

I loro produttori dovranno seguire allora un codice di condotta basato sulla trasparenza delle informazioni condivise con il pubblico, che dev’essere consapevole in ogni momento di stare interagendo con una macchina.

Rischio minimo

Rientra in questa categoria la stragrande maggioranza dei sistemi esperti, automatizzati e di Intelligenza Artificiale attualmente utilizzati sul territorio europeo. In questo caso le disposizioni lasciano ai fornitori la libertà di aderire ai codici di condotta e di affidabilità su base volontaria.

AI Liability Directive: verso la regolamentazione

A fine settembre 2022 la Commissione Europea ha rilasciato l’AI Liability Directive, una proposta legislativa che rappresenta il primo passo verso l’applicazione di provvedimenti legali nei confronti di chi subisce danni connessi all’uso di questa tecnologia.

L’assunzione di responsabilità legale ricadrà allora su diversi soggetti: in primis sulle società che mettono a disposizione l’AI, ma anche altri su attori dell’intera supply chain, non ultimi gli utenti stessi.

Conclusione: è giusto limitare l’innovazione?

Non è mai corretto limitare l’innovazione, e peraltro lo scopo di norme e leggi ben scritte non è mai quello di bloccare la crescita di una tecnologia.

Come dimostrano le proposte messe sul tavolo da Unione Europea e Stati Uniti, nel prossimo futuro l’Intelligenza Artificiale sarà soggetta a regole che porteranno i produttori ad assumersi le responsabilità necessarie per i prodotti e i servizi che immettono sul mercato.

L’intento di questi provvedimenti è quello di preservare le libertà individuali e collettive. Si potrà innovare senza rischiare la libertà delle persone solo attraverso il controllo di realtà terze, alla luce della contemporaneità e grazie ai contributi di diverse aree di competenza.

È proprio la volontà di portare le persone e le organizzazioni in un ambiente digitale più umano e più empatico che guida Neosperience nello sviluppo degli algoritmi di Intelligenza Artificiale, dall’analisi del comportamento utente alla semplificazione dei processi aziendali.