Key4biz

AI generativa, arriva codice condotta Ue (ma non è obbligatorio). Cosa faranno le Big Tech?

La Commissione europea ha ricevuto la versione definitiva del Codice di condotta per l’AI generativa, concepito per fornire linee guida operative per l’attuazione delle disposizioni dell’AI Act, che entrerà in vigore il prossimo 2 agosto (senza deroghe), e promuovere l’innovazione responsabile e la tutela dei diritti individuali.

Il codice di condotta sviluppato da 13 esperti indipendenti, con il contributo di oltre mille parti interessate, tra cui fornitori di modelli, piccole e medie imprese, accademici, esperti di sicurezza dell’AI, titolari di diritti e organizzazioni della società civile.

L’obiettivo è garantire che i modelli di AI per uso generativo immessi sul mercato europeo, compresi quelli più potenti, siano sicuri e trasparenti. Ma OpenAI, Google, Meta e gli altri devono decidere nei prossimi giorni e settimane se aderire alle stringenti regole europee sull’AI o se rifiutare per affrontare così un esame più attento da parte della Commissione europea.

Il guanto di sfida della Ue alle Big Tech sui rischi dell’AI

Le norme, che non saranno applicabili fino al prossimo anno, giungono nel bel mezzo di un acceso dibattito a Bruxelles su quanto duramente regolare una nuova tecnologia considerata da molti leader cruciale per il futuro successo economico di fronte alla concorrenza di Stati Uniti e Cina. Alcuni critici, soprattutto della società civile, hanno accusato le autorità di regolamentazione di aver annacquato le norme per ottenere il sostegno dell’industria.

La pubblicazione delle linee di condotta volontarie della Ue nasce appunto dai timori per i possibili rischi legati a modelli come ChatGPT e Grok. Il dilemma per le Big Tech adesso è chiaro: aderire o no alle linee di condotta Ue? Non sono obbligatorie.

Linee guida applicabili a poche aziende

Le linee guida si applicano soltanto a un numero limitato di aziende tecnologiche come OpenAI, Microsoft e Google, che creano la cosiddetta IA general-purpose. Questi sistemi supportano servizi come ChatGPT e possono analizzare enormi quantità di dati, apprendere autonomamente e svolgere alcune attività umane.

Il cosiddetto codice di condotta rappresenta alcuni dei primi dettagli concreti su come le autorità di regolamentazione dell’UE intendono applicare l’AI Act, approvata lo scorso anno. Le norme per i sistemi di IA general-purpose entrano in vigore il 2 agosto, sebbene le autorità di regolamentazione dell’UE non possano imporre sanzioni per inadempienza fino all’agosto 2026, secondo quanto stabilito dalla Commissione Europea.

La Commissione Europea ha affermato che il codice di condotta mira ad aiutare le aziende a conformarsi all’AI Act. Le aziende che aderiscono al codice volontario beneficerebbero di una “riduzione degli oneri amministrativi e di una maggiore certezza del diritto”. I funzionari hanno affermato che coloro che non lo firmano dovranno comunque dimostrare la conformità all’AI Act con altri mezzi, il che potrebbe essere potenzialmente più costoso e dispendioso in termini di tempo.

Chi aderirà al codice?

Non è stato immediatamente chiaro quali aziende aderiranno al codice di conformità. Google e OpenAI stanno analizzando il testo finale. Microsoft ha rifiutato di commentare. Meta, che aveva segnalato di non voler aderire, non ha rilasciato commenti immediati. Amazon non si sa. La francese Mistral alla fine ha aderito.

CCIA Europe, un’associazione di categoria del settore tecnologico che rappresenta aziende come Amazon, Google e Meta, sostiene che il codice di condotta “impone un onere sproporzionato ai fornitori di intelligenza artificiale”.

In base alle linee guida, le aziende tecnologiche dovranno fornire dettagli sui contenuti utilizzati per addestrare i propri algoritmi, un requisito a lungo richiesto dagli editori di media preoccupati che la loro proprietà intellettuale venga utilizzata per addestrare i sistemi di intelligenza artificiale. Altre norme imporrebbero alle aziende di effettuare valutazioni del rischio per verificare come i loro servizi potrebbero essere utilizzati impropriamente per scopi come la creazione di armi biologiche che rappresentano un rischio per la sicurezza pubblica.

Il New York Times ha denunciato OpenAI e Microsoft per violazione del copyright

Il New York Times ha citato in giudizio OpenAI e il suo partner, Microsoft, per violazione del copyright di contenuti giornalistici relativi ai sistemi di intelligenza artificiale. Entrambe le aziende hanno negato le accuse nella causa.

Ciò che è meno chiaro è come la legge affronterà questioni come la diffusione di disinformazione e contenuti dannosi. Questa settimana, Grok, un chatbot creato da xAI, l’azienda di intelligenza artificiale di Elon Musk, ha condiviso diversi commenti antisemiti sulla piattaforma social X, tra cui elogi ad Adolf Hitler.

Henna Virkkunen, vicepresidente esecutivo della Commissione Europea per la sovranità tecnologica, la sicurezza e la democrazia, ha detto che la legge rappresenta “un passo importante verso la realizzazione di modelli di intelligenza artificiale più avanzati disponibili in Europa, non solo innovativi, ma anche sicuri e trasparenti”.

Nick Moës, direttore esecutivo di Future Society, un gruppo della società civile focalizzato sulle politiche in materia di intelligenza artificiale, ha affermato che le aziende tecnologiche hanno ottenuto importanti concessioni. “La loro attività di lobbying per modificare il codice li ha portati a stabilire cosa sia accettabile fare”, ha affermato.

“La regolamentazione non dovrebbe essere il miglior prodotto di esportazione dell’UE”, ha detto Aura Salla, membro finlandese del Parlamento europeo, in precedenza una delle principali lobbiste del Meta a Bruxelles. “Sta danneggiando le nostre stesse aziende.”

Exit mobile version