Analisi

ChatGPT, la Francia: “No a troppe regole Ue”. Da Macron assist a OpenAI?

di |

Il ministro del digitale francese Jean-Noël Barrot in un’intervista a Politico: “Evitare che troppa regolamentazione possa impedire la nascita di un potenziale ‘ChatGPT’ europeo”. Oppure la Francia vuole fare un assist a OpenAI?

La Francia sta sfornando il suo ‘ChatGPT’, e lo sta sviluppando la startup chiamata Mistral AI, fondata da ingegneri francesi provenienti da Google e Facebook. Mistral AI sta raccogliendo 100 milioni di euro per sviluppare modelli simili agli algoritmi di intelligenza artificiale generativa come quelli di OpenAI e Google

Ma il governo francese sembra temere che troppa regolamentazione dell’Unione Europea possa impedire la nascita di un potenziale futuro ‘ChatGPT’ europeo. È questo il senso dell’intervista rilasciata dal ministro del digitale francese Jean-Noël Barrot POLITICO.

La bozza di testo dell’AI Act, il voto finale del Parlamento europeo è previsto entro gli inizi del 2024, “è troppo rigorosa e rischia di fare proprio questo”, ha detto il ministro francese, che avverte, quindi, l’Ue ad evitare norme-ostacolo per l’innovazione. 

Come esempio, ha indicato la decisione di Google di non lanciare il suo chatbot Bard nell’Unione europea: “L’obiettivo non è avere sistemi di IA generativa non europei utilizzati in Europa, ma piuttosto vedere svilupparsi quelli europei. Dobbiamo evitare di portare fuori l’Europa dalla storia della tecnologia”.

“La posizione del Parlamento europeo”, ha aggiunto il ministro francese, “sembra eccessiva in un momento in cui abbiamo l’obbligo pressante di sviluppare modelli di IA generativa in Europa nei prossimi mesi, per essere autonomi e non dover dipendere da modelli extraeuropei negli anni e nei decenni a venire”.  

A Barrot non va giù che chatbot come ChatGPT dovrebbero rispettare alcune delle stesse regole dei sistemi ad alto rischio in aree come la salute e i trasporti.

È la stessa preoccupazione dimostrata dal ceo di OpenAI. Infatti, anche a Sam Altam non va giù, come prevista della bozza del Regolamento sull’IA, la classificazione dei sistemi “ad alto rischio”, in cui sono inseriti Gpt-4, Bard di Google, ecc…

Secondo l’attuale testo-bozza, questi sistemi di intelligenza artificiale generativa saranno obbligati a rispettare maggiori misure di sicurezza. Inoltre, prevede di rivelare se un contenuto è prodotto con ChatGPT e da altre IA generative.

Il governo francese ha la stessa posizione del creatore dei ChatGPT. 
Come mai? Forse nell’incontro tra il ceo e Emmanuel Macron c’è stato un patto non scritto? 
Del tipo, se tu riesce a far passare una via di mezzo tra regolamentazione e innovazione, allora OpenAI investirà in Francia?

Nel suo recente viaggio in Europa (non è venuto in Italia) Sam Altam ha incontrato anche Ursula von der Leyen, che gli ha sottolineato la posizione della Commissione Ue: “L’intelligenza artificiale può alimentare enormi progressi e migliorare le nostre vite. Ma dobbiamo mitigare i rischi e creare fiducia. Per eguagliare la velocità dello sviluppo tecnologico, le aziende di intelligenza artificiale devono fare la loro parte. L’UE lavorerà con i partner e gli stakeholder a livello mondiale per un’IA affidabile”.

E di sicuro neanche su Margrethe Vestager avranno effetto le preoccupazioni del governo francese sulla nuova regolamentazione europea sull’IA. “La responsabilità (o meglio l’accountability – introdotta dal GDPR n.d.r.) sull’IA non può aspettare. È ora il momento”, ha affermato la settimana scorsa la commissaria europea all’Antitrust e vicepresidente esecutiva della Commissione Ue, al primo incontro nato per creare, in modo volontario, un codice di condotta sull’IA: all’evento ha partecipato anche il segretario di Stato americano Antony Blinken“Lavoreremo”, ha concluso Vestager, “con i nostri partner chiave e la comunità dell’IA sulle tutele per rendere l’IA responsabile, sicura e affidabile. Questo è un enorme passo avanti in una gara che non possiamo permetterci di perdere”.

Parola di lady di ferro. Brava anche a fare maglioni ai ferri: