Key4biz

Intelligenza artificiale, i 7 princìpi dell’Ue: ‘Sempre un controllo umano e tutela della privacy con il GDPR’

Industria e ricerca che vogliono realizzare in Europa soluzioni di intelligenza artificiale (IA) dovranno farlo mettendo al centro l’uomo “ci deve essere sempre un controllo umano, perché l’obiettivo è migliorare l’agire umano e i suoi diritti, non ridurre la sua autonomia”. Così recita il primo dei sette princìpi chiave contenuti nelle linee guida sull’IA presentate dalla Commissione Ue. A queste seguirà a fine giugno il lancio di una fase pilota e poi a inizio 2020 una valutazione con revisione dei punti chiave, se necessaria.

I 7 elementi fondamentali per un’IA affidabile

Un’IA affidabile dovrebbe rispettare tutte le disposizioni legislative e regolamentari applicabili e una serie di requisiti. Liste di controllo specifiche aiuteranno a verificare l’applicazione di ciascuno dei seguenti requisiti fondamentali.

  1. Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l’autonomia dell’uomo.
  2. Robustezza e sicurezza: per un’IA di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
  3. Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
  4. Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
  5. Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
  6. Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
  7. Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.

“Una persona deve sempre sapere quando si trova di fronte a una macchina e non a un essere umano”, ha spiegato la commissaria Ue, Maryia Gabriel, per questo “i sistemi di AI devono essere riconoscibili”. A giungo verrà quindi avviato un esercizio pilota a cui parteciperà un’ampia gamma di attori diversi, da imprese e multinazionali extra Ue a pubbliche amministrazioni (qui per registrarsi), e avverrà sotto l’egida dell’Alleanza europea per l’IA e la supervisione del Gruppo di esperti di alto livello per l’intelligenza artificiale. L’Ue punterà quindi a costruire una coalizione a livello internazionale per far applicare questi principi di sviluppo all’intelligenza artificiale anche a livello globale, a partire dai partner che condividono già questo approccio tra cui Canada, Giappone e Singapore.

Exit mobile version