IA

IA, Butti: “L’Italia deve produrla in autonomia. Serve equilibrio tra diritti umani e diritto all’evoluzione”

di |

Alessio Butti, Sottosegretario alla Presidenza del Consiglio per l'innovazione: "È importante per il nostro Paese arrivare a due obiettivi sull'IA: il primo riguarda il fondo per le startup, l'altro è di contare sulla vigilanza di un'agenzia o di una Authority, in questo caso AgID, con il supporto del Garante Privacy e dell'ACN".

ChatGPT rischia di essere una tecnologia straripante, per questo serve equilibrio tra diritti umani e diritto all’evoluzione”. Lo ha detto Alessio Butti, Sottosegretario alla Presidenza del Consiglio per l’Innovazione durante l’evento “Artificial Intelligence day: la rivoluzione de-generativa? in diretta su Class Cnbc (clicca qui per rivedere il video integrale).

Secondo un sondaggio condotto da Ipsos Italia per conto di Class Editori, presentato durante l’evento, il 54% degli italiani vorrebbe rallentare lo sviluppo dell’AI per sei mesi, il 32% non imporrebbe questo vincolo e il restante 14% non ha una posizione chiara in merito.

“Il Governo è consapevole che non ci può essere un intervento legislativo di carattere solamente nazionale ed è per questo che siamo in relazione continua e costante con l’Europa“, spiega Butti. “L’Europa ha impiegato infatti ben due anni per arrivare ad un testo approvato al momento in Commissione. Stiamo rischiando una cosa: cioè di continuare a concepire un impianto legislativo molto lento rispetto all’evoluzione tecnologica che corre e che va disciplinata”.

“Penso sia importante arrivare a due obiettivi, continua il Sottosegretario. “Il primo riguarda il fondo per le startup. In questi giorni ho incontrato i vertici di CDP, e, con i fondi del Dipartimento della Trasformazione Digitale, abbiamo l’intenzione di stanziare inizialmente circa 150 milioni di euro di risorse da erogare per lo studio, la ricerca e la programmazione riguardo l’intelligenza artificiale”. Per Butti “Il Paese deve produrre IA. Come per le telecomunicazioni ci deve essere una politica industriale anche per l’intelligenza artificiale. L’altro è di contare sulla vigilanza di un’agenzia o di una Authority. L’agenzia esiste già ed è AgID che potrebbe fare uno studio molto attento su quelli che sono i rischi e le regole da indicare. Ovviamente deve parametrarsi, confrontarsi e deve farlo sistematicamente con il Garante per la protezione dei dati personali ma anche con chi si occupa di cybersecurity, per cui è evidente che l’approccio con l’Agenzia per la Cybersicurezza Nazionale (ACN) ci deve essere e deve essere importante”.