Key4biz

Alto Adige. AI Generativa nelle Pubbliche Amministrazioni (video)

La tecnologia presenta grandi potenzialità ma, al contempo, presenta una serie di rischi. Primo tra tutto il rischio di produrre allucinazioni. È l’argomento trattato da Eva Sonnenmoser, Coordinatrice del laboratorio di innovazione presso il Ministero del Baden-Württemberg (D), Monica Palmirani, Professoressa ordinaria Università di Bologna Coordinatrice del corso di Dottorato in Law, Science and Technology e Andrea Licciardi Cyber Security Manager di Tecnimont Spa e fondatore dell’Associazione CISOs4AI (AI nella cybersecurity) durante la conferenza “AI per la trasformazione digitale delle amministrazioni locali: sfide e opportunità”, realizzata dal Cerchio ICT In House.

Monica Palmierani ha sottolineato che il Parlamento Europeo ha approvato un emendamento contenuto nell’Artificial Intelligence Act, tramite il quale occorrerà dichiarare se il testo, o il contenuto, in generale è prodotto da AI Generativa e dotare l’applicativo di una documentazione extra sulle caratteristiche dello strumento utilizzato. “Per le allucinazioni, la Commissione Europea ha rilasciato linee guida con il divieto di usare ChatGpt per atti aventi forza di legge, o documenti di implicazione giuridica”, ha aggiunto durante il suo intervento.

AI Generativa e Cybersecurity

Andrea Licciardi sottolinea che l’AI è uno strumento cardine e fondamentale per le sfide di cybersicurezza ma può migliorare l’efficienza delle pubbliche amministrazioni e ridurre i tempi di attesa per i cittadini, oltre a “poter personalizzare i servizi pubblici”. Di contro, è possibile aumentare la sicurezza da rischi informatici, ma è necessario gestire questioni etiche e di conformità. Per difendere il cittadino e la pubblica amministrazione è necessario creare una figura strategica, chiamata CISO, Chief Information Security Officer. È colui che definisce le strategie per proteggere gli asset aziendali e mitigare i rischi informatici.

Così come l’Intelligenza Artificiale viene usata per produrre phishing, malware e deepfake, bisogna investire nelle tecnologie adatte a combatterli e, contestualmente, in risorse umane, capaci di gestire l’AI Generativa in modo tale da non incorrere in bias e risultati non coerenti o, peggio, addirittura controproducenti.

Exit mobile version