La conferenza

Usa, Cina e 26 altri paesi decidono di cooperare sullo sviluppo dell’AI

di |

I Governi del mondo si impegnano a fare la loro parte nella verifica dei rischi e delle possibilità dell'Intelligenza Artificiale. Il Regno Unito e gli Usa creeranno un istituto dedicato per la sicurezza dell'IA.

Grande eco mediatica per il primo summit internazionale sull’Intelligenza Artificiale, che ha visto riuniti a Londra i leader del mondo e alcune delle principali aziende specializzate sul delicato tema della governance e delle regole necessarie per circoscrivere la tecnologica che promette di cambiare le nostre vite. Il Governo britannico ha pubblicato una nota ufficiale di commento dell’evento che si è tenuto a Londra, a Bletchley Park.

Ma la vera notizia è che al summit c’era anche la Cina, chiamata al tavolo per decidere con gli altri paesi del mondo le sorti dell’Intelligenza artificiale.

Leggi anche: IA, rischi e vantaggi: la dichiarazione di Bletchley. Sunak: “Intesa con le aziende per test sui modelli prima del rilascio”. Meloni: “Tema chiave al G7 in Italia”

Presenza della Cina ‘monumentale’

Michelle Donelan, segretario di Stato britannico per la scienza, l’innovazione e la tecnologia, ha affermato che il vertice ha segnato un “momento storico non solo per il Regno Unito ma per il mondo”, aggiungendo che la presenza della Cina è stata “monumentale”.

Alla domanda se il Regno Unito fosse ora in ritardo rispetto agli Stati Uniti nell’introduzione di una regolamentazione chiara per le aziende che sviluppano tecnologie avanzate di intelligenza artificiale, ha affermato: “Non penso che sia utile fissare scadenze arbitrarie sulla regolamentazione . . . occorre un approccio empirico”.

“Stiamo escludendo la legislazione? Assolutamente no. Stiamo cercando di fare cose più veloci della legislazione”, ha detto Donelan, sottolineando il lavoro del suo governo per incoraggiare le aziende a pubblicare le loro politiche sulla sicurezza dell’IA.

Anche Wu, rappresentante della Cina, è intervenuto in apertura, affermando che tutti gli attori “devono rispettare il diritto internazionale” e lavorare insieme nella lotta contro l’uso dannoso dell’intelligenza artificiale. Ha affermato che le tecnologie di intelligenza artificiale sono “incerte, inspiegabili e prive di trasparenza”.

Primo summit globale sulla sicurezza dell’AI

“Per la prima volta rappresentanti governativi di alto livello delle principali nazioni legate all’intelligenza artificiale e delle principali organizzazioni di intelligenza artificiale concordano un piano per testare la sicurezza dei modelli di intelligenza artificiale di frontiera – si legge nella nota di Downing Street – il piano prevede di testare i modelli sia prima che dopo l’implementazione e un ruolo per i governi nei test, in particolare per i danni critici alla sicurezza nazionale, all’incolumità e alla società”.

“I paesi hanno concordato che il “padrino dell’intelligenza artificiale” Yoshua Bengio guiderà la consegna di un rapporto sullo “stato della scienza”, che aiuterà a costruire una comprensione condivisa delle capacità e dei rischi posti dall’intelligenza artificiale di frontiera”, prosegue la nota.

“I paesi e le aziende che sviluppano l’intelligenza artificiale di frontiera hanno concordato un piano innovativo sui test di sicurezza dell’intelligenza artificiale, mentre il primo ministro Rishi Sunak ha concluso oggi (ieri giovedì 2 novembre) il primo vertice mondiale sulla sicurezza dell’intelligenza artificiale”.

Governi e aziende

In una dichiarazione sui test, i governi e le società di intelligenza artificiale hanno riconosciuto che entrambe le parti hanno un ruolo cruciale da svolgere nel testare la prossima generazione di modelli di intelligenza artificiale, per garantire la sicurezza dell’intelligenza artificiale, sia prima che dopo la distribuzione dei modelli.

Ciò include la collaborazione per testare la prossima generazione di modelli di intelligenza artificiale rispetto a una serie di funzionalità potenzialmente dannose, tra cui danni critici per la sicurezza nazionale, l’incolumità e la società.

Hanno concordato che i governi hanno un ruolo nel garantire che vengano effettuati test esterni di sicurezza dei modelli di IA di frontiera, segnando un allontanamento dalla responsabilità di determinare la sicurezza dei modelli di IA di frontiera spettando esclusivamente alle aziende.

I governi hanno inoltre raggiunto l’ambizione condivisa di investire nella capacità del settore pubblico per i test e altre ricerche sulla sicurezza; condividere i risultati delle valutazioni con altri paesi, ove opportuno, e lavorare per sviluppare, a tempo debito, standard condivisi in questo settore, ponendo le basi per i futuri progressi internazionali sulla sicurezza dell’IA negli anni a venire.

Dichiarazione di Bletchley

La dichiarazione si basa sulla Dichiarazione di Bletchley concordata da tutti i paesi partecipanti il primo giorno del vertice sulla sicurezza dell’intelligenza artificiale. Si tratta di uno dei numerosi passi avanti significativi compiuti durante il vertice nella costruzione di un approccio globale per garantire un’IA sicura e responsabile, come il lancio pionieristico da parte del Regno Unito di un nuovo Istituto per la sicurezza dell’intelligenza artificiale.

I paesi rappresentati a Bletchley hanno inoltre accettato di sostenere il professor Yoshua Bengio, accademico di intelligenza artificiale vincitore del Premio Turing e membro del comitato consultivo scientifico delle Nazioni Unite, nella guida del primo rapporto sullo “Stato della scienza” dell’intelligenza artificiale di frontiera. Ciò fornirà una valutazione scientifica della ricerca esistente sui rischi e le capacità dell’IA di frontiera e definirà le aree prioritarie per ulteriori ricerche per orientare il lavoro futuro sulla sicurezza dell’IA.

I risultati del rapporto supporteranno i futuri vertici sulla sicurezza dell’intelligenza artificiale, i cui piani sono già stati avviati. La Repubblica di Corea ha accettato di co-ospitare un mini summit virtuale sull’intelligenza artificiale nei prossimi 6 mesi. La Francia ospiterà quindi il prossimo vertice in presenza tra un anno.

Rishi Sunak (Uk): ‘Ruolo centrale dei governi per testare la sicurezza dell’AI’

Il primo ministro Rishi Sunak ha detto: “Finora le uniche persone che hanno testato la sicurezza dei nuovi modelli di intelligenza artificiale sono state le stesse aziende che li hanno sviluppati. Non dovremmo fare affidamento su di loro per correggere i compiti che loro stessi hanno fatto, come molti di loro concordano – ha detto il primo ministro britannico – Oggi abbiamo raggiunto un accordo storico, con i governi e le aziende di intelligenza artificiale che lavorano insieme per testare la sicurezza dei loro modelli prima e dopo il loro rilascio. L’AI Safety Institute del Regno Unito svolgerà un ruolo fondamentale nella guida di questo lavoro, in collaborazione con paesi di tutto il mondo”.

Michelle Donelan (Uk): ‘Granatire che l’AI lavori per il bene di tutti’

Il Segretario di Stato per la Scienza, l’Innovazione e la tecnologia Michelle Donelan britannica ha detto: “I passi che abbiamo concordato di intraprendere negli ultimi due giorni aiuteranno l’umanità a cogliere le opportunità per una migliore assistenza sanitaria, una migliore produttività sul lavoro e la creazione di intere nuove industrie che l’IA sicura e responsabile è destinata a sbloccare.

Garantire che l’intelligenza artificiale funzioni per il bene di tutti noi è un impegno globale, ma sono orgoglioso del ruolo singolare che il Regno Unito ha svolto nel riunire governi, imprese e pensatori per concordare passi avanti concreti, per un futuro più sicuro”.

Yoshua Bengio, il ‘padrino’ dell’AI: ‘Lo sviluppo sicuro dell’AI riguarda tutti noi’

Yoshua Bengio, fra i massimi esperti di intelligenza artificiale, ha detto: “Lo sviluppo sicuro e responsabile dell’IA è una questione che riguarda ognuno di noi. Abbiamo assistito a massicci investimenti nel miglioramento delle capacità dell’intelligenza artificiale, ma investimenti insufficienti nella protezione del pubblico, sia in termini di ricerca sulla sicurezza dell’intelligenza artificiale sia in termini di governance per garantire che l’intelligenza artificiale sia sviluppata a beneficio di tutti.

Sono lieto di sostenere il tanto necessario coordinamento internazionale della gestione della sicurezza dell’IA, lavorando con colleghi di tutto il mondo per presentare le prove più recenti su questa questione di vitale importanza.

Il Regno Unito ha già assunto un ruolo guida in questi sforzi lanciando l’AI Safety Institute, per sviluppare la capacità del settore pubblico di condurre test di sicurezza e condurre ricerche sulla sicurezza dell’IA”.

Il rapporto “Stato della scienza”, condotto dal professor Yoshua Bengio, vincitore del Premio Turing, aiuterà i responsabili delle politiche sull’intelligenza artificiale nel Regno Unito e a livello internazionale a tenersi al passo con il rapido ritmo dei cambiamenti nell’intelligenza artificiale, insieme a un gruppo di eminenti accademici provenienti da tutto il mondo. mondo.

Essendo lo scienziato informatico più citato al mondo, fondatore del Mila – Quebec AI Institute, rinomato a livello internazionale, e consigliere sia del governo del Regno Unito che delle Nazioni Unite, il professor Bengio è in una posizione unica per guidare questo lavoro.

Le basi gettate a Bletchley Park negli ultimi due giorni saranno fondamentali per garantire che l’enorme potenziale dell’intelligenza artificiale possa essere sfruttato, in modo sicuro e responsabile, per sbloccare un cambio di marcia in ciò che è possibile in termini di produttività economica, assistenza sanitaria, istruzione e altro ancora.

Dall’Australia, all’Italia, alla Francia, agli Usa: il supporto dei paesi all’AI Safety Summit

Richard Marles, vice primo ministro dell’Australia ha detto: “L’Australia accoglie con favore un approccio sicuro fin dalla progettazione in cui gli sviluppatori si assumono la responsabilità. Gli impegni volontari sono positivi, ma non saranno significativi senza una maggiore responsabilità. L’Australia è lieta di collaborare con il Regno Unito in questo importante lavoro”.

Il ministro canadese dell’Innovazione, della Scienza e dell’Industria, l’Onorevole François-Philippe Champagne: “Il Canada accoglie con favore il lancio dell’AI Safety Institute del Regno Unito. Il nostro governo non vede l’ora di lavorare con il Regno Unito e di sfruttare l’eccezionale conoscenza e competenza canadese sull’IA, inclusa la conoscenza sviluppata dai nostri istituti di intelligenza artificiale per supportare lo sviluppo sicuro e responsabile dell’IA”.

La presidente della Commissione europea Ursula von der Leyen ha dichiarato: “All’alba dell’era delle macchine intelligenti, gli enormi vantaggi dell’intelligenza artificiale possono essere ottenuti solo se disponiamo anche di barriere contro i suoi rischi. Maggiore è la capacità dell’intelligenza artificiale, maggiore è la responsabilità. Una governance internazionale credibile dovrebbe basarsi su 4 pilastri: una comunità scientifica indipendente e dotata di risorse adeguate; procedure e standard di test ampiamente accettati; l’indagine su ogni incidente significativo causato da errori o uso improprio dell’IA; e un sistema di avvisi alimentato da segnalatori attendibili. È tempo di agire”.

Il governo francese ha affermato: “Le autorità francesi parteciperanno a questa iniziativa mobilitando le parti interessate e le risorse già attive sulla sicurezza dell’IA, in particolare le strutture di test e sperimentazione dell’Europa digitale per i partner dell’IA e il programma francese Confiance.ai”.

Il governo tedesco ha affermato: “La Germania prende atto con interesse della fondazione dell’Istituto per la sicurezza AI ed è ansiosa di esplorare possibilità di cooperazione”.

La posizione di Giorgia Meloni

Il primo ministro italiano Georgia Meloni ha dichiarato: “L’intelligenza artificiale sta entrando in ogni ambito della nostra vita. È nostra responsabilità, oggi, guidarne lo sviluppo etico e assicurarne il pieno allineamento con la libertà, il controllo e la prosperità del genere umano. Dobbiamo sviluppare l’applicazione pratica del concetto di “Algor-etica”, cioè etica per gli algoritmi”.

Meloni ha chiarito che l’AI sarà al centro della presidenza italiana del G7 e che si lavorerà “su come favorire una governance condivisa, coinvolgendo sia il settore pubblico che quello privato”.

In particolare, ha spiegato, per il G7 si terrà “a Roma una Conferenza internazionale su Intelligenza artificiale e lavoro, a cui vorremmo partecipassero studiosi, manager e esperti di tutto il mondo per discutere metodi, iniziative e linee guida per garantire che l’IA aiuti e non sostituisca chi lavora, migliorandone invece condizioni e prospettive”.

Il governo giapponese ha dichiarato: Il governo giapponese apprezza la leadership del Regno Unito nello svolgimento del vertice sulla sicurezza dell’intelligenza artificiale e accoglie con favore l’iniziativa del Regno Unito di istituire l’Istituto britannico per la sicurezza dell’intelligenza artificiale. Non vediamo l’ora di lavorare con il Regno Unito e altri partner sulle questioni relative alla sicurezza dell’IA per ottenere un’IA sicura, protetta e affidabile”.

Singapore e Usa

Il Ministro delle Comunicazioni e dell’Informazione di Singapore Josephine Teo ha dichiarato: “La rapida accelerazione degli investimenti, della diffusione e delle capacità dell’IA porterà enormi opportunità per la produttività e il bene pubblico. Riteniamo che i governi abbiano l’obbligo di garantire che l’intelligenza artificiale venga utilizzata in modo sicuro. Siamo d’accordo con il principio secondo cui i governi dovrebbero sviluppare capacità per testare la sicurezza dei sistemi di intelligenza artificiale di frontiera.

A seguito del protocollo d’intesa sulle tecnologie emergenti e sulla cooperazione sui dati firmato da Singapore e dal Regno Unito all’inizio di quest’anno, abbiamo deciso di collaborare direttamente con il Regno Unito per creare capacità e strumenti per valutare i modelli di intelligenza artificiale di frontiera. Ciò comporterà una partnership tra la Infocomm Media Development Authority di Singapore e il nuovo AI Safety Institute del Regno Unito. L’obiettivo è costruire una comprensione condivisa dei rischi posti dall’IA di frontiera. Siamo ansiosi di collaborare con il Regno Unito per creare competenze tecniche e di ricerca condivise per raggiungere questo obiettivo”.

Il ministro del Commercio americano Gina Raimondo ha dichiarato: “Accolgo con favore l’annuncio del Regno Unito di istituire un AI Safety Institute, che lavorerà di pari passo con l’AI Safety Institute degli Stati Uniti per garantire lo sviluppo e l’utilizzo sicuri, protetti e affidabili dell’IA avanzata. L’intelligenza artificiale è la tecnologia che definisce la nostra generazione, poiché comporta sia un enorme potenziale che un profondo rischio. I nostri sforzi coordinati attraverso questi istituti rappresentano solo l’inizio di azioni volte a facilitare lo sviluppo di standard di sicurezza, creare capacità di test per modelli avanzati di IA e espandere la condivisione delle informazioni, la collaborazione nella ricerca, l’interoperabilità e l’allineamento delle politiche in tutto il mondo sulla sicurezza dell’IA”.

Il supporto delle aziende

Demis Hassabis, co-fondatore e CEO di Google DeepMind, ha dichiarato: “L’intelligenza artificiale può aiutare a risolvere alcune delle sfide più critiche del nostro tempo, dalla cura delle malattie alla gestione della crisi climatica. Ma presenterà anche nuove sfide per il mondo e dobbiamo garantire che la tecnologia sia sviluppata e utilizzata in modo sicuro. Per ottenere questo risultato sarà necessario uno sforzo collettivo da parte dei governi, dell’industria e della società civile per informare e sviluppare solidi test e valutazioni sulla sicurezza. Sono entusiasta di vedere il Regno Unito lanciare l’AI Safety Institute per accelerare i progressi su questo lavoro vitale”.

Dario Amodei, cofondatore e Ceo di Anthropic, ha detto: “Sebbene l’intelligenza artificiale prometta significativi benefici per la società, presenta anche una serie di potenziali danni. Fondamentale per la gestione di questi rischi è la capacità del governo di misurare e monitorare la capacità e le caratteristiche di sicurezza dei modelli di intelligenza artificiale. L’AI Safety Institute è pronto a svolgere un ruolo importante nel promuovere valutazioni indipendenti su tutto lo spettro dei rischi e nel far avanzare la ricerca fondamentale sulla sicurezza. Accogliamo con favore la sua istituzione e non vediamo l’ora di collaborare strettamente per promuovere un’IA sicura e responsabile”.