Linee guida internazionali

Processo AI di Hiroshima, il codice di condotta del G7 sull’intelligenza artificiale un lascito per la presidenza italiana

di |

I paesi del G7 hanno concordato su un codice di condotta per le aziende e le istituzioni che sviluppano sistemi di intelligenza artificiale. Standard condivisi e regole comuni al centro.

I paesi del G7 hanno concordato su un codice di condotta per le aziende e le istituzioni che sviluppano sistemi di intelligenza artificiale (AI), volto a mitigare i rischi derivanti da questa tecnologia come la disinformazione e la violazione della privacy o della proprietà intellettuale.

I leader del Gruppo dei Sette (Canada , Francia, Germania, Italia, Giappone, Regno Unito, Germania, Stati Uniti e Stati Uniti) hanno approvato ieri una serie di linee guida per il settore dell’intelligenza artificiale soprannominate “Processo AI di Hiroshima” con riferimento alla presidenza giapponese del G7 in carica fino a dicembre. Da gennaio per tutto il 2024 sarà l’Italia a ricoprire la presidenza del G7 e l’AI sarà certamente al centro delle nostre attività, come preannunciato dal presidente del Consiglio Giorgia Meloni.

Leggi anche: Butti ‘Al prossimo G7 a guida italiana grande spazio all’IA’

AI, la Ue accoglie l’accordo sul Processo di Hiroshima. Ora il testimone del G7 passa all’Italia

Linee guida in divenire

Si tratta di linee guida in divenire, che certamente saranno arricchite sotto la presidenza italiana del G7. Le raccomandazioni sono aperte al contributo di tutti i paesi, del mondo dell’accademia, de business e della società civile.  

Troppo grande l’impatto dell’AI sulle nostre vite per non dare spazio a tutte le componenti della società in questa delicata fase di circoscrizione del perimetro di legalità della nuova tecnologia.

L’obiettivo del G7 è comunque quello di creare uno strumento standard di monitoraggio e controllo condiviso dell’AI, che sia basato in primo luogo sul rispetto dei diritti umani.

L’uomo resta al centro del sistema e importante sarà la previsione dei rischi e la tracciabilità dei processi decisionali. Come importante sarà la segnalazione delle vulnerabilità, la registrazione degli incidenti, la trasparenza e condivisione delle informazioni.  

Il tutto nel rispetto della privacy e nella necessità di stabilire policy di governance dell’AI che limitino tutti i rischi.

Nelle intenzioni del G7, l’AI dovrebbe essere prioritariamente e indirizzarsi alla soluzione dei grandi problemi del mondo: dall’emergenza climatica alla salute all’istruzione. E se possibile concentrarsi sulla creazione di standard internazionali condivisi.

La tabella di marcia del Processo di Hiroshima

La tabella di marcia del Processo di Hiroshima mira a promuovere lo sviluppo di sistemi di intelligenza artificiale “sicuri e affidabili” a livello internazionale e a “gestire i relativi rischi”, si legge nella dichiarazione congiunta, che invita anche tutti gli attori del settore dell’intelligenza artificiale a impegnarsi per la sua realizzazione. I punti salienti del G7 il “potenziale innovativo e trasformativo” dei sistemi avanzati di intelligenza artificiale e, in particolare, dei modelli generativi come il bot di conversazione ChatGPT, pur riconoscendo la necessità a “proteggere le persone, la società e i principi condivisi”, oltre a “mantenere l’umanità al centro” nonché principi per le aziende e le organizzazioni coinvolte nello sviluppo di sistemi di intelligenza artificiale.

Le misure raccomandate includono la supervisione di osservatori indipendenti su tutte le fasi dello sviluppo dell’intelligenza artificiale e del lancio sul mercato e la garanzia che gli sviluppatori di intelligenza artificiale identifichino potenziali rischi di uso improprio e correggano tali vulnerabilità.

Servirà trasparenza

Servirà trasparenza di questi modelli, gli sviluppatori sono invitati a riferire pubblicamente sulle “capacità e limitazioni” e sugli “ambiti di utilizzo appropriato e inappropriato” dei loro sistemi. Si chiede inoltre l’implementazione di “meccanismi di autenticazione” come la creazione di “filigrane digitali” che consentono agli utenti di identificare testo, immagini o video generati da intelligenze artificiali.

Linee guida riviste ciclicamente

Queste linee guida saranno riviste periodicamente, se necessario, “per adattarsi alla rapida evoluzione della tecnologia” e in consultazione con le parti interessate, secondo la dichiarazione congiunta. Oltre a invitare le imprese e le istituzioni del settore a seguire questo codice di condotta, i paesi del G7 “accelereranno il processo di sviluppo di un quadro politico” per promuovere l’attuazione del processo di Hiroshima, che includerà “una cooperazione basata su progetti”.

L’obiettivo è anche quello di promuovere il rispetto di questa tabella di marcia attraverso la cooperazione e la consultazione con diversi organismi internazionali come il Partenariato globale sull’intelligenza artificiale (GPAI), l’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) e con attori pubblici e privati, nonché con i paesi che sono non fa parte del G7.

Il codice di condotta di Hiroshima in 11 punti

  1. Adottare misure adeguate durante lo sviluppo di sistemi avanzati di IA, anche prima e durante la loro diffusione e immissione sul mercato, per identificare, valutare e mitigare i rischi durante il ciclo di vita dell’intelligenza artificiale.
  2. Modelli di abuso, dopo la diffusione, compreso l’immissione sul mercato.
  3. Segnalare pubblicamente le capacità, i limiti e gli ambiti di applicazione dei sistemi avanzati di IA uso appropriato e inappropriato, per sostenere la garanzia di una trasparenza sufficiente, contribuendo così ad aumentare la responsabilità
  4. Lavorare verso la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale, anche con l’industria, governi, società civile e mondo accademico.
  5. Sviluppare, attuare e divulgare politiche di governance dell’IA e di gestione del rischio, basato su un approccio basato sul rischio, comprese le politiche sulla privacy e la mitigazione misure, in particolare per le organizzazioni che sviluppano sistemi avanzati di IA.
  6. Investire e implementare solidi controlli di sicurezza, tra cui la sicurezza fisica, la sicurezza informatica e le misure di salvaguardia contro le minacce interne durante tutto il ciclo di vita dell’IA.
  7. Sviluppare e implementare meccanismi affidabili di autenticazione e provenienza dei contenuti, ove tecnicamente fattibile, come filigranatura o altre tecniche per abilitarlo agli utenti per identificare i contenuti generati dall’intelligenza artificiale.
  8. Dare priorità alla ricerca per mitigare i rischi sociali e per la sicurezza e definire le priorità di investimenti in misure di mitigazione efficaci.
  9. Dare priorità allo sviluppo di sistemi di intelligenza artificiale avanzati per affrontare le più grandi sfide globali, in particolare, ma non solo, la crisi climatica, la salute globale e l’istruzione
    10.Avanzare lo sviluppo e, ove opportuno, l’adozione di misure internazionali norme tecniche
    11.Attuare misure adeguate di immissione dei dati e protezioni per i dati personali e proprietà