L’Unione Europea ha ribadito la propria determinazione a rispettare la tabella di marcia per l’implementazione dell’AI Act, la prima legislazione organica al mondo che regolerà lo sviluppo e l’uso dell’Intelligenza Artificiale.
La conferma è arrivata venerdì, dopo la crescente pressione da parte di centinaia di aziende tecnologiche e di numerosi leader industriali che chiedono di sospendere o rinviare l’entrata in vigore del regolamento.
Anche multinazionali come Alphabet, Meta, Mistral AI e ASML hanno espresso preoccupazioni per l’impatto competitivo che la normativa potrebbe avere sulle imprese europee e sulla loro capacità di innovare in un settore in rapidissima evoluzione.
L’AI Act prevede infatti obblighi stringenti per i sistemi classificati “ad alto rischio” – tra cui applicazioni biometriche, riconoscimento facciale, strumenti di selezione del personale e sistemi educativi – nonché il divieto assoluto di casi d’uso considerati “a rischio inaccettabile”, come la manipolazione cognitivo-comportamentale o il social scoring.
Il portavoce della Commissione Europea Thomas Regnier: “Nessuna proroga”
Il portavoce della Commissione Europea, Thomas Regnier, ha dichiarato in modo inequivocabile:
“Ho visto molte notizie, molte lettere e molte dichiarazioni sull’AI Act. Lasciate che sia il più chiaro possibile: non ci sarà alcuno stop al cronometro. Non ci sarà alcun periodo di grazia. Non ci sarà alcuna pausa.”
A confermare la portata e la tensione intorno alla normativa, pochi giorni fa 44 CEO di grandi aziende europee hanno firmato una lettera aperta in cui chiedono formalmente alla Commissione di sospendere l’adozione definitiva dell’AI Act.
AI Act piena applicazione nel 2026
Tra i firmatari compaiono i vertici di compagnie leader come Airbus, Siemens, Renault, Heineken, oltre a rappresentanti di settori strategici come l’energia e la finanza. Nella missiva si sottolinea il rischio che un approccio eccessivamente rigido finisca per penalizzare l’ecosistema industriale europeo e favorire la concorrenza extra-UE, in particolare quella cinese e statunitense.
L’AI Act, entrato in vigore in modo graduale già dallo scorso anno, prevede la piena applicazione entro la metà del 2026. Gli sviluppatori saranno tenuti a registrare i propri sistemi, rispettare obblighi di gestione del rischio e garantire trasparenza per le applicazioni a “rischio limitato”, come i chatbot.
Nonostante le proteste, Bruxelles sembra determinata a fare dell’Europa un punto di riferimento mondiale per un’Intelligenza Artificiale “sicura e antropocentrica”, senza ulteriori rinvii. La partita tra regolamentazione e competitività, però, è destinata a rimanere aperta nei prossimi mesi.