Big Tech e influenze indebite nel nuovo Codice di buone pratiche per l’AI di uso generale
Mentre l’Unione europea si appresta il prossimo 2 maggio ad adottare il nuovo Codice di Buone Pratiche per l’Intelligenza Artificiale di uso generale (GPAI, acronimo inglese per “Code of Practice on General Purpose AI”), un’inchiesta congiunta di Corporate Europe Observatory (CEO) e LobbyControl getta un’ombra inquietante sul processo di stesura: il ruolo dominante delle grandi aziende tecnologiche statunitensi.
Meta, Google, Microsoft e altri attori chiave dell’AI globale avrebbero esercitato un’influenza tale da indebolire in modo significativo il testo finale, minando gli sforzi regolatori europei e riducendo drasticamente le garanzie per i diritti fondamentali, la privacy e la proprietà intellettuale.
Il Codice nasce come strumento di attuazione dell’AI Act, la prima legge al mondo che cerca di regolamentare l’intelligenza artificiale con un approccio basato sul rischio. Per i modelli “general purpose” – come ChatGPT – l’AI Act ha rinunciato a obblighi vincolanti, demandando proprio al Codice l’onere di definire regole operative volontarie.
Un compromesso già fragile, che ora rischia di diventare un cavallo di Troia.
L’attacco di Trump
Un portavoce della Commissione europea ha confermato all’inizio di questa settimana di aver ricevuto una lettera dalla Missione del governo statunitense presso Bruxelles che si opponeva al Codice, si legge su euronews.com.
L’amministrazione americana guidata dal Presidente Donald Trump ha criticato le norme digitali dell’Unione, sottolineando che “soffocano l’innovazione”.
Lunedì la Commissione non si è pronunciata sul rispetto della scadenza fissata per il 2 maggio. Tuttavia, sia le linee guida sull’AI a scopo generale che il Codice di condotta definitivo sulla GPAI dovrebbero essere pubblicati a maggio o giugno 2025, come affermato in una consultazione pubblica sulle linee guida GPAI pubblicata di recente.
In un’e-mail alle parti interessate, visionata sempre da Euronews, l’ufficio per l’intelligenza artificiale della Commissione ha affermato che si prevede che il testo finale venga pubblicato “prima di agosto 2025“, quando entreranno in vigore le norme sugli strumenti di intelligenza artificiale per i consumatori.
Big Tech al tavolo… e in cabina di regia
Tornando all’inchiesta, si documenta come, nonostante la partecipazione formale di centinaia di attori (dalla società civile all’accademia, passando per PMI e editori), i veri protagonisti del processo siano stati i fornitori di modelli AI.
Quindici aziende statunitensi – tra cui Meta, Google, Microsoft, Apple, Amazon, OpenAI, Anthropic – hanno avuto accesso privilegiato a workshop riservati, incontrando direttamente i responsabili della redazione del testo.
La società civile, invece, è stata relegata a sessioni plenarie, con possibilità minime di intervento e dinamiche che, secondo diverse testimonianze, hanno di fatto escluso un confronto paritario.
“Partecipazione Potëmkin” e conflitti d’interesse
Un termine che emerge dal rapporto è “partecipazione Potëmkin”: la società civile è stata tecnicamente inclusa, ma senza reali strumenti per incidere. Dinah van der Geest di Article 19 ha denunciato come le domande dei partecipanti fossero filtrate, senza possibilità di interagire in tempo reale.
I workshop specifici per la società civile? Solo uno, alla fine del processo, quando ormai il testo era quasi definitivo.
A peggiorare il quadro, il Codice è stato redatto con il supporto di un consorzio di consulenti, nel documento si leggono diversi nomi di società, tra cui Wavestone e CEPS, legati a doppio filo con le Big Tech.
Da premi ricevuti da Microsoft, a collaborazioni con Google e AWS, fino al fatto che CEPS conta tra i suoi membri tutti i grandi nomi dell’industria americana, il conflitto d’interesse è più che un sospetto.
Il colpo di grazia: copyright e discriminazione
Il rapporto mette in luce due aspetti cruciali in cui Big Tech ha ottenuto ampie concessioni:
- Discriminazione e diritti fondamentali: nella seconda bozza, “la discriminazione illegale su larga scala” era considerata un rischio sistemico da mitigare obbligatoriamente. Nella terza bozza, è diventata un “rischio aggiuntivo facoltativo”. L’obbligo si trasforma in raccomandazione. Come ha osservato Article 19, questo crea una falla normativa enorme.
- Copyright: uno dei punti più contestati. Le versioni iniziali prevedevano la verifica dell’accesso legittimo a contenuti protetti e l’obbligo di mitigare usi illeciti. Le versioni più recenti parlano invece di “ragionevoli sforzi” e scaricano l’onere della prova sugli autori. Senza trasparenza sui dataset, diventa impossibile per gli autori sapere se i propri contenuti sono stati utilizzati illegalmente.
La deregolamentazione come nuova dottrina?
La scelta di Bruxelles sembra ormai virare apertamente verso la deregolamentazione. Sotto la guida della Commissione von der Leyen – che ha promesso meno burocrazia per “rilanciare la competitività europea” – l’equilibrio tra tutela dei diritti e spinta all’innovazione si è spezzato.
Un’occasione persa?
Emblematico il discorso tenuto all’AI Action Summit: “Vogliamo che l’Europa sia un continente leader nell’AI. Questo significa abbracciare una vita in cui l’intelligenza artificiale è ovunque”, ha dichiarato la Presidente della Commissione, Ursula von der Leyen, affiancata – non casualmente – dal CEO di Google, Sundar Pichai.
Il rischio è che, per cercare il compromesso con chi detiene la tecnologia e i capitali, l’Europa rinunci al proprio ruolo di guida etica e normativa. L’obiettivo di “regolamentare l’AI nel rispetto dei diritti fondamentali” sembra scivolare in secondo piano rispetto alla volontà di “non creare oneri aggiuntivi” per chi quelle regole dovrebbe rispettarle.
Il Codice di buone pratiche rappresenta un banco di prova decisivo. Se l’Ue cederà ancora alle pressioni di Big Tech, il messaggio sarà chiaro: anche nel cuore dell’Europa, chi ha il potere economico può scrivere le regole del gioco. E chi dovrebbe difendere l’interesse pubblico rischia di restare senza voce.