Con l’approvazione definitiva in Senato, l’Italia diventa il primo Paese europeo a dotarsi di una legge nazionale sull’Intelligenza Artificiale. Un quadro normativo che anticipa l’AI Act e promette di cambiare regole e investimenti per cittadini, imprese e Pubblica amministrazione.
Le novità del testo
Il provvedimento, frutto di due anni di iter e tre letture parlamentari, stabilisce principi chiari: uso antropocentrico e sicuro dell’AI, trasparenza, protezione dei dati e supervisione umana in tutti i settori sensibili.
Tra le modifiche più rilevanti introdotte dalla Camera: stop all’obbligo di server nazionali per l’uso pubblico dell’AI, niente via libera preventivo dei comitati etici nella ricerca sanitaria, consenso dei genitori per l’uso dei minori sotto i 14 anni e sostegno esplicito a micro, piccole e medie imprese. Nascono inoltre l’Osservatorio sull’adozione dell’AI e un Comitato di coordinamento, senza nuovi oneri per lo Stato.
Governance e strategia
Il sistema di vigilanza ruota attorno a due autorità: l’Agenzia per la Cybersicurezza Nazionale, con poteri ispettivi, e l’Agenzia per l’Italia Digitale, responsabile delle notifiche e della promozione dei casi d’uso. Il coordinamento resta alla Presidenza del Consiglio, che aggiornerà la Strategia nazionale sull’AI ogni due anni, con report annuale al Parlamento. I settori coinvolti vanno dalla sanità (dati per la ricerca, centralità del medico) al lavoro (dignità del lavoratore e osservatori dedicati), fino a giustizia, scuola e sport.
Risorse e investimenti
Accanto alle regole, il Governo ha previsto risorse straordinarie: 1 miliardo di euro tramite Cassa Depositi e Prestiti per finanziare startup, progetti di ricerca e attrarre capitali privati. “Alle imprese diciamo con chiarezza: investite in Italia. Troverete una governance affidabile, regole trasparenti e un ecosistema pronto a sostenere progetti concreti”, ha dichiarato il sottosegretario Alessio Butti.
Stampa estera: per il Guardian l’Italia stanzia poche risorse
Il quotidiano britannico ha sottolineato che la norma introduce pene da uno a cinque anni di carcere per chi diffonde contenuti manipolati come i deepfake quando causano danni, oltre a sanzioni più severe per frodi e furti di identità.
Ha richiamato anche i limiti di accesso per i minori di 14 anni, le nuove regole sul copyright e l’impostazione “human-centric” rivendicata da Palazzo Chigi. Il giornale ha però messo l’accento anche sulle risorse: il miliardo stanziato viene giudicato modesto rispetto alla corsa globale, dove Stati Uniti e Cina muovono capitali di ordini di grandezza superiori.
Reuters: “Requisiti troppo stringenti rischiano di mettere in crisi le PMI”
Reuters ha dedicato più spazio agli aspetti economici. L’agenzia ha parlato di una “legislazione pionieristica” che però rischia di rivelarsi sbilanciata sul fronte delle risorse. Pur riconoscendo la portata innovativa del provvedimento, ha segnalato che i fondi annunciati appaiono limitati se confrontati con i colossali investimenti internazionali.
Inoltre, alcuni osservatori citati dall’agenzia hanno messo in guardia: requisiti troppo stringenti rischiano di pesare sulle imprese più piccole, proprio quelle che dovrebbero trainare l’innovazione. Secondo Reuters, il quadro normativo nazionale può diventare un vantaggio competitivo solo se accompagnato da politiche industriali più robuste.
Hogan Lovells: “L’Italia potrebbe generare conflitti con l’AI ACT europeo”
Anche dal mondo legale arrivano osservazioni critiche. Hogan Lovells, studio legale internazionale britannico-statunitense, nono al mondo per fatturato, in un’analisi dedicata, ha parlato di “corsa in solitaria” dell’Italia che potrebbe generare conflitti con l’AI Act europeo.
Lo studio legale internazionale segnala differenze di definizioni, obblighi di trasparenza duplicati e restrizioni non sempre proporzionate. In particolare, viene messo in rilievo il rischio che la normativa italiana produca una sovrapposizione di regole che aumenta gli oneri per le aziende, con un impatto significativo sulle PMI.
Hogan Lovells invita quindi a un allineamento più stretto con Bruxelles per evitare che l’Italia diventi un laboratorio sì, ma frammentato e poco competitivo.
A queste critiche ha risposto lo stesso sottosegretario Butti, ribadendo che la legge italiana è “perfettamente complementare con l’AI Act” e che l’anticipo normativo non vuole creare sovrapposizioni ma dare certezze immediate a imprese e cittadini, in attesa della piena entrata in vigore della normativa europea.
Laboratorio d’avanguardia o freno burocratico?
La stampa internazionale riconosce all’Italia un primato politico e normativo, ma solleva dubbi sulla capacità di sostenere davvero l’innovazione con risorse economiche limitate e con un quadro regolatorio che rischia di complicarsi. Secondo l’avvocato Alessandro Del Ninno, esperto di diritto delle nuove tecnologie, non bisogna confondere la legge appena approvata con un vero e proprio “AI Act italiano”:
“Non siamo di fronte a quello che è stato presentato come l’‘AI Act italiano’. La legge approvata è in realtà una legge delega che senz’altro contiene alcuni articoli direttamente applicabili, ma che per lo più affida al Governo il compito di emanare i decreti legislativi che costituiranno la vera disciplina. Basti pensare all’articolo 24, che prevede fino a 18 deleghe, comprese quelle per il coordinamento con l’AI Act europeo. Non è dunque una normativa omnibus né una legge di coordinamento al regolamento UE 1689, ma uno strumento che traccia la strada italiana della governance dell’intelligenza artificiale. Proprio per questo la valutazione deve tener conto del rischio di conflitti e sovrapposizioni con il Regolamento UE sull’Intelligenza Artificiale che oggi è già applicabile in modo parziale (dal 2.2.25 sono applicabili i primi quattro articoli e dal 2.8.25 gli articoli 53-56 sul diritto d’autore) e pienamente applicabile a partire dal prossimo 2 agosto 2026.”
Sul rischio di ostacolo all’innovazione tecnologica, Del Ninno risponde: “È un approccio che può diventare burocratico e pesante. Coordinare una normativa nazionale peculiare con il quadro europeo sarà complesso, e ancora di più quando saranno esercitate le 18 deleghe dell’articolo 24 e saranno emanati i sei decreti ministeriali in settori come sanità, lavoro, giustizia e imprese. Quando la disciplina sarà completa, con i decreti delegati e i decreti ministeriali, è probabile che emergano ostacoli allo sviluppo tecnologico.”
Il punto più critico resta l’articolo 23
“L’articolo 23 stanzia fino a un miliardo di euro, ma non solo per l’AI: le somme riguardano anche big data, telecomunicazioni, 5G, cybersicurezza e tecnologie quantistiche. Così ripartite, le risorse diventano molto limitate. È un approccio a pioggia che rischia di impedire un reale sviluppo dell’intelligenza artificiale. Basta confrontare: la Francia ha stanziato 10 miliardi solo per l’AI fino al 2029, la Germania 5 miliardi entro il 2025. In Italia, oltre a risorse molto inferiori, manca una linea dedicata a infrastrutture strategiche come i centri dati, i supercomputer e i poli di ricerca. Sono assenti gli strumenti fondamentali per sostenere davvero lo sviluppo.”
Cosa cambia sulla giustizia
“L’articolo 15, dedicato all’impiego dell’AI nel comparto giudiziario, stabilisce che l’utilizzo sia sempre subordinato alla decisione finale del magistrato su interpretazione, applicazione della legge, valutazione dei fatti e delle prove. Alcuni hanno letto questo comma come un divieto di impiego dell’AI nei tribunali, ma io non ci vedo un divieto assoluto. È possibile usarla, ma solo come supporto. Tuttavia, se accogliamo l’interpretazione restrittiva, allora emerge un contrasto con l’AI Act europeo, che nell’allegato 3 include proprio i sistemi ad alto rischio per l’amministrazione della giustizia, ammettendone l’utilizzo. Qui c’è un potenziale conflitto normativo.”
Il secondo comma dello stesso articolo apre invece a scenari più concreti:
“Sembra destinato all’uso dell’AI per migliorare l’organizzazione dei servizi giudiziari, semplificare il lavoro e le attività amministrative. Ma anche in questo caso, la disciplina definitiva è rimandata a un decreto del Ministero della Giustizia. Interessante la previsione sulla formazione specifica dei magistrati, un segnale culturale importante che però da solo non basta.”
Infine, le ricadute sul diritto penale:
“La legge modifica il codice penale introducendo nuove aggravanti comuni per i reati commessi con l’impiego dell’AI, prevede aumenti di pena, introduce il nuovo delitto di deepfake (articolo 612-quater), interviene sui reati societari e sulla violazione del diritto d’autore. C’è poi una delega ambiziosa all’articolo 24, comma 3, che incarica il Governo di emanare entro 12 mesi decreti legislativi per rivedere l’intero sistema civile e penale al fine di disciplinare i casi di illecito utilizzo dell’AI. È un intervento che può avere un impatto molto profondo sul comparto giustizia, sia civile che penale.”