Evento Cerchio ICT

AI, il Procuratore Raimondi: “Da usare anche nelle indagini” (Video)

di |

Può l’Intelligenza Artificiale rendere il singolo più sicuro nella vita di tutti i giorni, o, invece è uno strumento che mina la sua incolumità?

Durante la conferenza “AI per la trasformazione digitale delle amministrazioni locali: sfide e opportunità”, realizzata dal Cerchio ICT In House, il Procuratore della Repubblica presso il Tribunale Ordinario di Trento, Sandro Raimondi, risponde alla domanda spiegando: “Pensare di fare indagini senza l’uso dell’Intelligenza Artificiale significa essere perdenti. Io combatto la criminalità che oggi è ‘artificiale’, perché i comportamenti illeciti da parte della criminalità organizzata non possono prescindere dall’uso dell’IA.”

Le tre criticità legate all’IA Generativa

Al suo intervento ha fatto seguito quello di Maurizio Gabbrielli, Direttore del Dipartimento di Informatica, Scienza e Ingegneria dell’Università di Bologna, che ha riportato il discorso su tre criticità legate all’IA Generativa: “In primo luogo la lotta alla contraffazione può usare l’Intelligenza Artificiale, ma i prodotti (testi, immagini, suoni, programmi) non comprendono cosa stanno facendo”. Il secondo aspetto che sottolinea è la realizzazione dei modelli artificiali di machine learning. Sono modelli costruiti sui dati immessi. “Se questi dati contengono bias, questi bias vengono trasferiti nel modello con il rischio di essere amplificati”. La terza criticità riguarda il monopolio che si sta creando, soprattutto con ChatGpt e con i costi che questi comportano. “Per fare un esempio, Gpt3.5 ha consumato 5 milioni di dollari per essere addestrato”.

Della stessa linea è Teresa Scantamburlo, Assistant Professor del Dipartimento di Scienze Ambientali, Informatica e Statistica dell’Università Ca’ Foscari di Venezia il cui esempio è legato alla discriminazione sociale e al concetto di etica digitale: “In America un algoritmo ha predetto che tre studenti, di tre istituti diversi, giudicati con il medesimo voto dati insegnanti, avrebbero avuto un voto di maturità estremamente differente” questo perché l’algoritmo si basava sui dati storici degli istituti di riferimento, estremamente diversi tra loro. “È quindi fondamentale implementare l’AI Act spiegando agli AI provider i requisiti da rispettare per non incorrere in rischi simili”.

Opposto è il parere di Tommaso Ricci, di DLA Piper, avvocato specializzato nei settori Data Protection, Cybersecurity TMT e fondatore di TechnoLawgy, canale divulgativo (privacy e innovazione legale) che spiega che “oltre il 90% degli incidenti cybernetici che si verificano sono causati dall’uomo che perpetra attacchi ogni giorno”. L’uso dell’AI abbassa drasticamente questi attacchi. La migliore difesa, tuttavia, dovrebbe essere, “l’attenzione umana, capace di distinguere ciò che è vero dalla finzione”, conclude l’avv. Ricci durante la conferenza organizzata dal Cerchio ICT In House.