Il documento

AI, la Ue accoglie l’accordo sul Processo di Hiroshima. Ora il testimone del G7 passa all’Italia

di |

La Ue saluta la pubblicazione da parte dei paesi del G7 del documento di Hiroshima, che fissa le prime linee guida internazionali sul corretto sviluppo dell'Intelligenza Artificiale.

La Commissione Ue accoglie positivamente l’accordo del G7 sul codice di condotta sui principi guida internazionali sull’intelligenza artificiale (AI) e un codice di condotta volontario per gli sviluppatori di intelligenza artificiale nell’ambito del processo di Hiroshima sull’intelligenza artificiale (in nome del summit che si è tenuto il 23 maggio in Giappone), approvato dai Paesi del G7. Il tema ci riguarda da vicino, visto che l’Italia assumerà la presidenza del G7 a gennaio 2024 e che l’Intelligenza Artificiale sarà uno dei temi principali del nostro mandato.

Leggi anche: Butti ‘Al prossimo G7 a guida italiana grande spazio all’IA’

La nota della Commissione Ue precisa che questi principi e il codice di condotta volontario integreranno, a livello internazionale, le norme giuridicamente vincolanti che i co-legislatori dell’UE stanno attualmente finalizzando nell’ambito della legge sull’IA dell’UE. La presidente della Commissione europea, Ursula von der Leyen, è stata tra coloro che hanno sottoscritto la dichiarazione dei leader del G7 rilasciata dalla presidenza giapponese del G7 del 2023.

von der Leyen: ‘Enormi benefici dell’AI per cittadini ed economia’

La presidente von der Leyen ha dichiarato: “I potenziali benefici dell’intelligenza artificiale per i cittadini e per l’economia sono enormi. Tuttavia, l’accelerazione della capacità dell’intelligenza artificiale comporta anche nuove sfide. Già pioniere della regolamentazione con la legge sull’intelligenza artificiale, l’UE sta anche contribuendo ai controlli e alla governance dell’intelligenza artificiale a livello globale. Sono lieta di accogliere i principi guida internazionali del G7 e il codice di condotta volontario, che riflettono i valori dell’UE per promuovere un’IA affidabile. Invito gli sviluppatori di intelligenza artificiale a firmare e attuare questo codice di condotta il prima possibile”.

Garantire la sicurezza e l’affidabilità della tecnologia

Gli undici principi guida adottati dai leader dei sette paesi e dell’UE che compongono il G7, forniscono indicazioni per le organizzazioni che sviluppano, implementano e utilizzano sistemi di IA avanzati, come modelli di base e IA generativa, per promuovere la sicurezza e l’affidabilità del mondo. tecnologia. Includono impegni per mitigare i rischi e gli abusi e identificare le vulnerabilità, per incoraggiare la condivisione responsabile delle informazioni, la segnalazione di incidenti e gli investimenti nella sicurezza informatica, nonché un sistema di etichettatura per consentire agli utenti di identificare i contenuti generati dall’intelligenza artificiale.

Sulla base dei risultati di un sondaggio tra le parti interessate, questi principi sono stati sviluppati congiuntamente dall’UE con gli altri membri del G7, nell’ambito del processo di intelligenza artificiale di Hiroshima. I principi guida sono a loro volta serviti come base per compilare un codice di condotta, che fornirà una guida dettagliata e pratica per le organizzazioni che sviluppano l’intelligenza artificiale. Il Codice di condotta volontario promuoverà inoltre la governance responsabile dell’IA a livello globale. Entrambi i documenti saranno rivisti e aggiornati secondo necessità, anche attraverso consultazioni multilaterali inclusive, per garantire che rimangano adatti allo scopo e reattivi a questa tecnologia in rapida evoluzione. I leader del G7 hanno invitato le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale a impegnarsi nell’applicazione del Codice di condotta internazionale. I primi firmatari saranno annunciati prossimamente.

Background

Il processo di intelligenza artificiale del G7 di Hiroshima è stato istituito al vertice del G7 del 19 maggio 2023 per promuovere guardrail per i sistemi di intelligenza artificiale avanzati a livello globale. L’iniziativa fa parte di una gamma più ampia di discussioni internazionali sui guardrail per l’IA, anche in sede OCSE, nella Global Partnership on Artificial Intelligence (GPAI) e nel contesto dell’accordo UE-USA. Consiglio per il commercio e la tecnologia e i partenariati digitali dell’UE.

Da quando ha annunciato per la prima volta la sua intenzione di lavorare su un codice di condotta in occasione della riunione ministeriale del TTC del 31 maggio 2023, la Commissione europea ha collaborato attivamente con i principali partner internazionali del G7 per sviluppare i principi e il codice di condotta sull’intelligenza artificiale. Questi impegni internazionali sono coerenti con le norme giuridicamente vincolanti attualmente in fase di negoziazione nell’ambito della più ampia legge sull’intelligenza artificiale (legge sull’intelligenza artificiale dell’UE), che si applicherà nell’UE.

La proposta di legge dell’UE sull’IA garantirà la sicurezza e i diritti fondamentali delle persone e delle imprese, rafforzando al tempo stesso l’adozione, gli investimenti e l’innovazione dell’IA in tutta l’UE. La legge sull’IA fornirà norme giuridicamente vincolanti basate sul rischio per i sistemi di IA immessi sul mercato o messi in servizio nel mercato dell’Unione.

Il codice di condotta di Hiroshima in 11 punti

1. Adottare misure adeguate durante lo sviluppo di sistemi avanzati di IA, anche prima e durante la loro diffusione e immissione sul mercato, per identificare, valutare e mitigare i rischi durante il ciclo di vita dell’intelligenza artificiale.

2. Modelli di abuso, dopo la diffusione, compreso l’immissione sul mercato.

3. Segnalare pubblicamente le capacità, i limiti e gli ambiti di applicazione dei sistemi avanzati di IA uso appropriato e inappropriato, per sostenere la garanzia di una trasparenza sufficiente, contribuendo così ad aumentare la responsabilità

4. Lavorare verso la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale, anche con l’industria, governi, società civile e mondo accademico.

5. Sviluppare, attuare e divulgare politiche di governance dell’IA e di gestione del rischio, basato su un approccio basato sul rischio, comprese le politiche sulla privacy e la mitigazione misure, in particolare per le organizzazioni che sviluppano sistemi avanzati di IA.

6. Investire e implementare solidi controlli di sicurezza, tra cui la sicurezza fisica, la sicurezza informatica e le misure di salvaguardia contro le minacce interne durante tutto il ciclo di vita dell’IA.

7. Sviluppare e implementare meccanismi affidabili di autenticazione e provenienza dei contenuti, ove tecnicamente fattibile, come filigranatura o altre tecniche per abilitarlo agli utenti per identificare i contenuti generati dall’intelligenza artificiale.

8. Dare priorità alla ricerca per mitigare i rischi sociali e per la sicurezza e definire le priorità di investimenti in misure di mitigazione efficaci.

9. Dare priorità allo sviluppo di sistemi di intelligenza artificiale avanzati per affrontare le più grandi sfide globali, in particolare, ma non solo, la crisi climatica, la salute globale e l’istruzione

10.Avanzare lo sviluppo e, ove opportuno, l’adozione di misure internazionali norme tecniche

11.Attuare misure adeguate di immissione dei dati e protezioni per i dati personali e proprietà