accordi

AI, Codice Ue. Ok (poco convinto) da xAI, Google e Microsoft, no di Meta

di |

Chi è dentro e chi fuori il Codice di buone pratiche Ue sull’intelligenza artificiale di uso generale legato all’AI Act. Tra sicurezza, copyright e trasparenza, l’Europa punta a coniugare tutela dei cittadini e competitività, in gioco un impatto economico stimato di 1,4 trilioni annui.

Il Codice di buone pratiche Ue per i modelli di AI di uso generale

L’Unione europea (Ue) stringe la presa sull’intelligenza artificiale (AI) con il nuovo Codice di pratiche per i modelli di intelligenza artificiale di uso generale, parte integrante del quadro normativo definito dall’AI Act, la legge comunitaria destinata a diventare un riferimento globale sulla regolamentazione dell’AI.

Il codice di condotta, elaborato da 13 esperti indipendenti e articolato in tre capitoli – trasparenza, copyright, sicurezza e protezione – è volontario, ma promette a chi lo sottoscrive certezza giuridica nell’applicazione delle nuove regole europee.

Le linee guida mirano a favorire uno sviluppo sicuro dei modelli AI più avanzati, con particolare attenzione ai rischi per la sicurezza, alla tutela dei diritti d’autore e alla trasparenza verso gli utenti.

Ok da xAI, Google, Microsoft, OpenAI, Anthropic e Mistral

Negli ultimi giorni si sono schierati i grandi nomi del settore.
xAI, la società di Elon Musk, ha annunciato di voler sottoscrivere solo il capitolo su “Safety and Security”, dichiarando su X (ex Twitter) che “supporta la sicurezza dell’AI”, ma criticando le altre sezioni come “profondamente dannose per l’innovazione”, con un riferimento diretto alle norme sul copyright, considerate “un’evidente forzatura”.

Google (Alphabet) ha confermato la propria adesione all’intero codice, sottolineando come il rispetto di queste linee guida possa favorire l’accesso dei cittadini europei a strumenti di AI sicuri e avanzati, con un potenziale impatto economico stimato in +8% del PIL UE entro il 2034, pari a circa 1,4 trilioni di euro l’anno. “Il dispiegamento rapido e diffuso è importante”, ha dichiarato Kent Walker, presidente delle relazioni globali di Google, avvertendo però che “alcuni requisiti rischiano di rallentare lo sviluppo e la competitività europea”.

Microsoft, attraverso il presidente Brad Smith, ha lasciato intendere che l’azienda firmerà probabilmente il codice. OpenAI e la francese Mistral AI hanno invece annunciato la volontà di firmare, ma senza chiarire se accetteranno tutti i capitoli o solo alcune parti del codice.

Anche Anthropic ha annunciato l’intenzione di firmare il Codice di condotta generale per l’intelligenza artificiale dell’Unione europea. L’azienda ha dichiarato in una nota che il Codice è in linea con i suoi valori di trasparenza, sicurezza e responsabilità nello sviluppo dell’AI.

Meta si tira fuori

Meta (Facebook, Instagram, WhatsApp) invece ha scelto di non aderire, denunciando il rischio di “bloccare l’innovazione in Europa”. Il capo degli affari globali Joel Kaplan ha parlato di “misure che vanno ben oltre l’AI Act e introducono incertezze legali per gli sviluppatori di modelli”.

Un codice fondamentale per l’Europa

Per Bruxelles, l’adesione delle Big Tech al Codice di pratiche AI rappresenta un passo decisivo verso l’attuazione dell’AI Act, che si propone come la prima regolamentazione organica al mondo sull’intelligenza artificiale.

È importante trovare accordi con le principali aziende del settore per uno sviluppo armonioso dell’industria e del mercato AI in Europa e non solo. Entro il 2035 l’AI generativa impiegata in un’ampia gamma di settori economici e produttivi potrebbe aggiungere 1.200-1.400 miliardi di euro al PIL dell’Unione, con effetti sul mondo del lavoro e a livello occupazionale ancora da valutare in maniera approfondita.

Il valore politico è duplice: garantire sicurezza e trasparenza per cittadini e imprese europee, limitando i rischi di un’adozione incontrollata di AI avanzate a danno dei diritti, soprattutto di chi non ha voce; promuovere un ecosistema competitivo europeo, attirando aziende globali sotto un quadro normativo chiaro e offrendo certezza legale a chi opera nel mercato unico.

Tuttavia, le perplessità espresse da Google, xAI e Meta evidenziano la sottile linea tra tutela dei cittadini e rischio di frenare l’innovazione. Alcuni passaggi del codice – come quelli sul copyright e sulla protezione dei segreti industriali – sono visti come potenziali ostacoli al rapido sviluppo di modelli europei in grado di competere con gli Stati Uniti e la Cina.

Se il codice riuscirà a trovare un equilibrio tra sicurezza e competitività, l’Europa potrebbe davvero trasformare la regolamentazione in un vantaggio strategico. In caso contrario, il rischio è quello segnalato da Meta: vedere l’innovazione AI migrare altrove.

Leggi le altre notizie sull’home page di Key4biz