Key4biz

L’Italia nell’era dell’AI. Butti e Floridi propongono l’idea dello “Stato agentico”, l’AI deve essere governata

Alessio Butti, Luciano Floridi

Alessio Butti, Luciano Floridi

Presentato alla Camera dei Deputati il Rapporto “L’Italia nell’era dell’IA. Crescita, sfide e prospettive di una rivoluzione in corso”, sullo sviluppo dell’intelligenza artificiale nel nostro Paese, curato dal Presidente di Fondazione Leonardo ETS, Luciano Floridi, e da Micaela Lovecchio, Education e Formazione nelle Scuole della Fondazione Leonardo ETS.

Un documento che analizza l’ecosistema nazionale e formula diciotto raccomandazioni operative. L’analisi rileva, inoltre, punti di forza, due supercomputer tra i primi cinque in Europa, la prima legge sull’intelligenza artificiale nell’UE, accanto a diverse fragilità: dipendenza dall’hardware estero, fuga dei talenti e bassa adozione di intelligenza artificiale nelle PMI.

Da sinistra, Anna Ascani, vicepresidente Camera dei Deputati, Alessio Butti, Sottosegretario di Stato con delega all’innovazione tecnologica, Luciano Floridi, Presidente della Fondazione Leonardo Ets, Rita Cucchiara, Rettrice Università degli Studi di Modena e Reggio Emilia, Micaela Lovecchio, Fondazione Leonardo Ets.

Il Parlamento italiano è stato tra i pionieri in Europa nell’utilizzo, a livello istituzionale, di soluzioni di intelligenza artificiale (AI). Come ha ricordato nei saluti iniziali la vicepresidente della Camera, Anna Ascani, pochi mesi fa sono stati presentati i primi prototipi basati sull’AI generativa sviluppati a seguito della manifestazione d’interesse promossa dal Comitato di vigilanza sull’attività di documentazione, presieduto dalla stessa Ascani. Un’iniziativa, avviata nel febbraio 2024, che mirava a valorizzare l’uso dell’IA come strumento innovativo a supporto dei lavori parlamentari, della trasparenza istituzionale e del dialogo con i cittadini. I prototipi selezionati sono stati valutati sotto il profilo funzionale, architetturale e di sicurezza da focus group tecnico-scientifici.

La democrazia – ha dichiarato la Vicepresidente della Camera – si trova a confrontarsi con nuovi sviluppi tecnologici che sono anche nuovi meccanismi di potere, e non può farlo restando ferma. Occorre farsi promotori di un cambiamento che sfrutti le potenzialità delle nuove tecnologie, le indirizzi verso un approccio umano-centrico, per favorire la trasparenza, la tracciabilità e la loro inclusione nei processi democratici”.

Butti: “Uno Stato agentico che usa l’AI per adeguarsi in anticipo rispetto alle esigenze del cittadino

Il punto su quanto è stato fatto dal Governo e su quanto si sta facendo oggi lo ha illustrato Alessio Butti, Sottosegretario alla Presidenza del Consiglio con delega all’Innovazione: “Lo stato dell’intelligenza artificiale in Italia nel 2026 lo possiamo raccontare attraverso tre direttrici: il tasso di adozione dell’intelligenza artificiale, che ovviamente è il metodo con cui rapidamente coinvolge e avvolge il mondo dell’impresa come il mondo della pubblica amministrazione; la coerenza tra lo sviluppo e la sperimentazione, che è un po’ la sintesi che noi stiamo cercando di mettere a terra anche con provvedimenti legislativi, che riguarda la ricerca, i casi d’uso, la competenza, i dati, le regole, non solo ovviamente italiane; la scalabilità, che è probabilmente il passaggio più impegnativo perché descrive il passaggio di progetti pilota delle pubbliche amministrazioni e servizi pubblici che poi integrano l’intelligenza artificiale in modo stabile, riusabile e adattabile alle variegate esigenze del territorio”.

Da sinistra, Luciano Floridi, Presidente della Fondazione Leonardo Ets, e Alessio Butti, Sottosegretario di Stato con delega all’innovazione tecnologica

Negli ultimi due anni è stata registrata un’accelerazione nell’adozione dell’intelligenza artificiale da parte delle imprese. Questo si accompagna a un divario strutturale che vede le grandi imprese che cominciano ad adottare in modo molto serio l’intelligenza artificiale, mentre le imprese che arrivano a 10 dipendenti, o che superano di poco i 10 dipendenti, raggiungono al massimo il 16% di adozione. A livello italiano siamo all’8,2%. L’obiettivo è raggiungere quanto prima la percentuale europea che è al 13,5%. Come stiamo recuperando terreno? Innanzitutto abbiamo una strategia che ho citato poco fa, che è una strategia dell’intelligenza artificiale 24-26, che poi ha consentito anche l’approvazione di una legge dopo un ampio dibattito parlamentare. Una legge che rivolge grande attenzione al mondo della piccola e media impresa”.

Nel piano triennale della informatica per la pubblica amministrazione 24-26, che è stato aggiornato nel 2025, noi abbiamo raggiunto 150 progetti di intelligenza artificiale nella pubblica amministrazione. C’è di più, perché puntiamo ad almeno 400 in questo 2026”.

Parlando poi del progetto Regioni per l’Intelligenza Artificiale (Reg4IA), la rete di conoscenza e innovazione che unisce Governo, Regioni e Province autonome per potenziare con l’intelligenza artificiale i servizi pubblici, Butti ha spiegato un punto di vista molto particolare di Stato agentico: “uno Stato che usa l’intelligenza artificiale per adeguarsi in anticipo, possibilmente, rispetto alle esigenze del cittadino e non siamo affatto lontani, lo stiamo già attuando con pubbliche amministrazioni molto impegnate su questo tema”.

L’iniziativa Reg4AI presentata a Genova, che nasce dalla collaborazione tra il Dipartimento per la trasformazione digitale e le Regioni Liguria, Lombardia, Puglia e Toscana, alla guida di quattro partenariati impegnati su ambiti strategici come salute e turismo, ambiente e mobilità sostenibile, pubblica amministrazione e sicurezza del territorio, ha precisato Butti “rappresenta un modello di regia istituzionale che, grazie alla partecipazione di tutte le Regioni e Province autonome d’Italia, guiderà sperimentazioni territoriali con l’obiettivo di favorirne il riuso e alla replicabilità su scala nazionale, a vantaggio di cittadini e imprese”.

Per gestire la sfida della scalabilità, mettiamo insieme governance, filiere della conoscenza e la collaborazione tra Governo centrale e territori. Sulla governance, discutibile o meno, noi abbiamo ancorato alla Presidenza del Consiglio il controllo, la verifica, il coordinamento e il monitoraggio di tutto quello che accade sull’intelligenza artificiale. L’obiettivo – ha precisato Butti – è creare la catena del valore dell’intelligenza artificiale”.

Dobbiamo costruire forme di cooperazione internazionale per sviluppare infrastrutture di calcolo condivise, ad esempio creando un laboratorio europeo pubblico privato all’avanguardia dedicato alla formazione di una famiglia di modelli di base open source e alla loro messa a disposizione gratuita come infrastruttura di utilità pubblica”, ha affermato Butti.

Floridi (Fondazione Leonardo ETS): “Ci vorrebbe un open source made in Eu

C’è stato tanto lavoro dietro questo rapporto in termini di ricerca, confronti, approfondimenti. E alla fine il risultato è quello che avete tra le mani: un prodotto curato, pulito, apparentemente lineare. Uno dei temi che è emerso è quello, molto semplice, che “l’unione fa la forza”. È una banalità, ma in Italia facciamo spesso fatica a metterla in pratica. Storicamente non siamo bravissimi a lavorare insieme: ci dividiamo, competiamo, ci scontriamo, a volte anche su piccole cose. E così finisce che qualcun altro ci mette insieme… e lo fa secondo le proprie regole. Prendendo spunto dall’intervento dell’On. Butti, riprendo il concetto dello Stato agentico, una bella idea, perché sposta l’attenzione dall’intelligenza in sé all’azione: sistemi che fanno cose, che hanno un impatto concreto. Ma proprio per questo sono sistemi che devono essere guidati, governati. Non sono entità autonome che agiscono da sole senza conseguenze.
E qui entra in gioco subito il tema della governance, della bioetica, delle scelte: cosa si fa con queste tecnologie, quando e come. Su questo, va detto, siamo su una buona strada. E permettetemi di dirlo chiaramente: questa narrazione per cui l’Italia sarebbe sempre e comunque in ritardo, sempre fanalino di coda, è parziale. Restiamo uno dei Paesi più rilevanti al mondo, e questo comporta anche una responsabilità. Perché la verità è semplice: se qualcosa non accade, è perché qualcuno non l’ha fatta accadere. Se un progetto non si sviluppa, è perché non è stato considerato una priorità. Non possiamo sempre scaricare la responsabilità su fattori esterni o su un generico sistema
”, ha affermato nel suo intervento conclusivo Luciano Floridi, presidente della Fondazione Leonardo ETS.

Questo diventa ancora più evidente quando parliamo di infrastrutture. Se davvero pensiamo che l’intelligenza artificiale sia una tecnologia che incide sulla democrazia, non possiamo lasciare tutto nelle mani del mercato. Sarebbe come dire: speriamo che chi controlla queste tecnologie sia “bravo”. Ma se non lo fosse? Non possiamo basarci sulla speranza. Serve quindi un equilibrio: un certo grado di sovranità e di controllo è fondamentale. Possiamo semplificare tutto questo immaginando un tavolo a quattro gambe. La prima gamba sono i dati: su questo abbiamo già strumenti importanti, come il GDPR e l’AI Act, quindi una base solida c’è. La seconda gamba è il software, cioè gli algoritmi, i modelli, i sistemi di AI. Qui il controllo è molto più debole: gli “ingredienti” li abbiamo, ma la “cucina” spesso no. La terza gamba è l’infrastruttura: dove vivono questi sistemi? I data center, i chip, le reti. Anche qui c’è ancora molto da fare, soprattutto a livello europeo. La quarta gamba è quella normativa, che invece è uno dei nostri punti di forza.
Il problema è che questo tavolo oggi non è perfettamente stabile. E su questo tavolo stiamo appoggiando pezzi fondamentali della nostra società, della nostra economia, della nostra democrazia. La domanda
è – ha precisato Floridi – che tipo di tavolo vogliamo lasciare a chi verrà dopo di noi? Uno solido o uno traballante? Il rapporto prova a dare un contributo in questa direzione: non è una critica sterile, ma un tentativo di indicare cosa funziona e cosa può essere migliorato”.

Immaginate la situazione italiana come un tramezzino: abbiamo due ottime fette di pane — da un lato la capacità di calcolo e dall’altro la normativa. Ma in mezzo, dove dovrebbe esserci la sostanza, spesso c’è poco: manca ancora un forte sviluppo industriale, applicativo, infrastrutturale. Eppure proprio lì c’è un’enorme opportunità. Per esempio: perché un Paese dovrebbe spendere enormi risorse per acquistare soluzioni proprietarie, quando potrebbe adottare — o contribuire a creare, ha precisato Floridi — soluzioni open source di qualità? Certo, oggi l’open source è spesso associato ad altri modelli, ad altri Paesi, con tutte le incognite del caso su dati, governance ed etica. Ma perché non immaginare un open source europeo, costruito dentro il quadro dell’AI Act e del GDPR, con standard chiari e garantiti? Un ecosistema aperto, affidabile, certificato — un “bollino europeo” — che possa essere utilizzato non solo da noi, ma anche da Paesi come Canada, Giappone, Corea del Sud, Brasile, Sudafrica e molti altri”.

Lovecchio (Fondazione Leonardo ETS): “L’AI non è stata solo oggetto di indagine, ma anche strumento

L’Italia è al 18esimo posto nell’Unione europea per adozione dell’intelligenza artificiale, con un mercato di oltre 1,2 miliardi di euro, che potrebbe raggiungere i 5 miliardi entro il 2030. Con due supercomputer tra i primi cinque in Europa, la prima legge nazionale sull’AI nell’Ue e imprese di eccellenza che operano su scala globale, il Paese dispone di asset strategici significativi, ma presenta tre criticità: la dipendenza tecnologica dall’estero per l’hardware, il divario salariale del 40-50% rispetto alla Germania e al Regno Unito, che alimenta la fuga di talenti, e il divario di adozione tra le grandi imprese (53,1%) e le Pmi (15,7%). 

Secondo il Rapporto, l’Italia deve costruire le condizioni per poter trasformare l’intelligenza artificiale da minaccia competitiva a opportunità di rilancio industriale. I settori con il maggiore potenziale sono l’analisi testuale e i sistemi conversazionali (32% del mercato, +86% annuo), le applicazioni industriali e la manifattura 4.0, la convergenza IA-Life Sciences e i servizi per la pubblica amministrazione.

La ricerca è stata costruita come una stratificazione di narrazioni, che ci ha costretto, di volta in volta, ad adottare prospettive diverse per mettere a fuoco obiettivi differenti. Questo approccio ha portato a una raccolta di materiali molto ampia: dalle iniziali 130 pagine siamo arrivati a oltre 500. Un numero certamente elevato, forse eccessivo, ma necessario, perché rappresenta la base su cui si fonda l’intero rapporto.
L’intelligenza artificiale non è stata soltanto oggetto di indagine, ma anche uno strumento fondamentale che ci ha permesso di accelerare la fase di raccolta delle informazioni. Tuttavia, la ricerca non è stata semplice: la difficoltà si è spostata su un piano più alto, quello del mantenimento del rigore scientifico e della validazione delle fonti. Per questo motivo, è importante chiarire il metodo adottato e la suddivisione delle categorie analizzate: aziende, centri di ricerca, pubblica amministrazione e startup
”, ha spiegato Micaela Lovecchio, Education e Formazione nelle Scuole della Fondazione Leonardo ETS.

Per quanto riguarda le aziende, ci siamo concentrati su quelle che investono lungo l’intera catena del valore dell’intelligenza artificiale, in particolare in ricerca e sviluppo e nella realizzazione di soluzioni proprietarie.
Nei centri di ricerca, l’attenzione si è focalizzata sulle realtà più avanzate, capaci di spingere l’innovazione oltre i confini attuali: laboratori che oggi producono conoscenza apparentemente astratta, ma destinata a diventare concreta nel medio-lungo periodo, e che formano i talenti dell’intero ecosistema.
Per la pubblica amministrazione
– ha precisato Lovecchio – il focus è stato sulle soluzioni in grado di migliorare la vita dei cittadini, riducendo la distanza tra istituzioni e comunità, con particolare attenzione al tema dell’etica degli algoritmi.
Infine, per le startup, abbiamo valutato non solo l’originalità delle idee, ma anche la loro scalabilità sul mercato e i tempi di realizzazione
”.

Sono tre le “priorità legislative immediate” segnalate dai ricercatori ai decisori politici: “emanare i decreti attuativi della Legge 132/2025 per garantire certezza del diritto”, “rendere operativo il fondo da un miliardo di euro definendo i criteri di allocazione per AI, quantum computing e cybersecurity”, infine potenziare il regime degli impatriati estendendolo da 5 a 10 anni per profili AI”, in modo da competere con incentivi tedeschi e britannici.

Le raccomandazioni del Rapporto richiedono inoltre risorse incrementali stimate tra 800 milioni e 1,2 miliardi di euro nel triennio 2026-2028, di cui circa 500 milioni per il fondo Venture Capital dedicato all’AI, 150 milioni per incentivi fiscali al rientro dei talenti, 100 milioni per il potenziamento degli uffici di trasferimento tecnologico universitari e la quota rimanente per formazione, infrastrutture dati e coordinamento.

Alessio Butti, Sottosegretario di Stato con delega all’innovazione tecnologica, Luciano Floridi, Presidente della Fondazione Leonardo Ets, Rita Cucchiara, Rettrice Università degli Studi di Modena e Reggio Emilia, Micaela Lovecchio, Fondazione Leonardo Ets

Ubertini (CINECA): “Europea la più grande rete pubblica federata di supercalcolo al mondo

Fin dalle prime pagine del rapporto, il tema delle infrastrutture di supercalcolo, cioè dei “motori” che rendono possibili queste tecnologie, emerge come uno dei principali punti di forza del nostro Paese. Si tratta di un risultato che affonda le radici in un percorso iniziato alla fine degli anni Sessanta e che, negli ultimi anni, è stato ulteriormente rafforzato grazie al sostegno dell’Unione Europea.
Un esempio emblematico è il supercalcolatore Leonardo, operativo da novembre 2022: una macchina tra le più potenti al mondo, finanziata congiuntamente dall’Europa e dall’Italia. Accanto a Leonardo, il rapporto cita anche il supercalcolatore di Eni, anch’esso ai vertici globali e il più potente al mondo gestito da un’impresa non strettamente tecnologica. Questi risultati non sono casuali, ma il frutto di investimenti e competenze sviluppati nel corso di oltre trent’anni
”, ha dichiarato Francesco Ubertini, presidente del CINECA e professore dell’Università di Bologna.

Nel complesso, l’Italia si colloca tra le principali potenze mondiali per capacità computazionale. A livello europeo, inoltre, è stata costruita negli ultimi anni un’infrastruttura federata di supercalcolo che rappresenta oggi la più grande rete pubblica di questo tipo al mondo.
Queste infrastrutture sono fondamentali per la ricerca e l’innovazione: vengono utilizzate per sviluppare e addestrare modelli, ovvero per tutte le fasi che precedono l’impiego concreto delle tecnologie. Per esempio, sistemi come ChatGPT nascono su infrastrutture di ricerca di questo tipo, mentre il loro utilizzo quotidiano avviene su infrastrutture diverse, dedicate alla produzione
”, ha aggiunto Ubertini.

Una delle raccomandazioni del rapporto è quindi quella di mantenere questa posizione di leadership anche nei prossimi anni. In questo senso, arrivano segnali positivi: dopo l’inaugurazione di Leonardo, gli investimenti non si sono fermati. Il governo italiano, insieme all’Europa, ha continuato a rafforzare queste infrastrutture e i risultati saranno visibili già nel corso di quest’anno. Per dare un ordine di grandezza – ha sottolineato Ubertini – Leonardo ha comportato un investimento complessivo di circa 250 milioni di euro, mentre dal 2022 a oggi sono stati stanziati ulteriori 750 milioni. Un impegno complessivo che porta a circa un miliardo di euro e che consente di guardare con fiducia al prossimo ciclo tecnologico”.

Cucchiara (Università di Modena e Reggio Emilia): “Dalla ricerca di base arrivano le applicazioni più concrete per il mercato

Il sistema produttivo italiano è vero che è in crescita, ma resta fortemente disomogeneo, soprattutto nel divario tra piccole e medie imprese, che rappresentano la maggioranza, e grandi aziende. Nella mia esperienza, ad esempio in Emilia-Romagna, si osserva come alcune realtà, in particolare nei settori digitale e finanziario, utilizzino già in modo diffuso strumenti di intelligenza artificiale, mentre molte imprese manifatturiere sono ancora in una fase iniziale, pur iniziando a esplorare ambiti come l’analisi predittiva, il continuous learning e i modelli federati. La crescita c’è, ma è ancora insufficiente: serve un impegno più forte per incentivare gli investimenti e diffondere la consapevolezza dell’importanza strategica di queste tecnologie. A questo si collega un secondo tema cruciale: il brain drain.
Nonostante gli importanti investimenti nella formazione, in particolare nelle università pubbliche, l’Italia continua a perdere una quota significativa dei suoi giovani più qualificati. I dati Istat mostrano che nel 2023 circa 192.000 italiani tra i 25 e i 34 anni sono emigrati, a fronte di 73.000 rientri, con una perdita netta di 119.000 giovani. Di questi, ben 58.000 possiedono un’istruzione terziaria o un dottorato. Considerando inoltre che l’Italia è tra i Paesi europei con il minor numero di laureati, il rischio è quello di trovarsi, nel prossimo futuro, con una carenza di competenze qualificate
”, ha sostenuto Rita Cucchiara, rettrice dell’Università di Modena e Reggio Emilia.

Le cause sono certamente anche economiche, ma non solo: esiste un problema di riconoscimento del valore della ricerca. A livello internazionale, conferenze come CVPR e NeurIPS rappresentano tra i contesti più prestigiosi nel campo dell’intelligenza artificiale, ma questi risultati spesso non vengono adeguatamente valorizzati dal sistema industriale italiano, mentre all’estero costituiscono un canale diretto di accesso al lavoro qualificato.
Il terzo punto riguarda il ruolo della ricerca di base, come nel caso del partenariato esteso Future AI Research. Si tratta di un’esperienza che ha coinvolto gran parte delle università italiane, creando un ecosistema che include anche grandi imprese e che ha prodotto risultati scientifici rilevanti. Tuttavia
– ha sottolineato Cucchiara – proprio perché si tratta di ricerca fondamentale, spesso se ne sottovaluta l’importanza strategica. È invece essenziale comprendere che dalla ricerca di base derivano rapidamente applicazioni concrete in settori chiave come la moda, il turismo, la manifattura e la sanità. La forza dell’intelligenza artificiale sta proprio nella sua trasversalità: gli stessi modelli possono essere applicati a dati finanziari, satellitari, medici o testuali. Il passaggio dalla teoria alla pratica è quindi molto rapido, ma richiede che il Paese investa in modo equilibrato sia nella ricerca fondamentale sia nelle applicazioni”.

Exit mobile version