L'opinione

L’insostenibile leggerezza delle policy del digitale: un caveat per la strategia di Intelligenza Artificiale

di Elisabetta Zuanelli, Presidente CReSEC/Università degli Studi di Roma “Tor Vergata” |

La nostra storica insufficienza nel produrre e piazzare tecnologia nel mercato non può comprimere la necessità di uno sviluppo tecnologico autoctono, spendibile nell’economia digitale.

La recente lettura e ascolto di interventi sul tema delle nuove tecnologie digitali dà la certezza che, come suggerisce la storica pubblicità contro la stitichezza, “basta la parola”.

Ne è testimonianza il rincorso affannato del Paese verso lo sviluppo di applicazioni di intelligenza artificiale e altro (blockchain, IoT, ecc.). La nostra storica insufficienza nel produrre e piazzare tecnologia nel mercato non può comprimere la necessità di uno sviluppo tecnologico autoctono, spendibile nell’economia digitale. Non solo consumatori ma anche produttori di tecnologie digitali.

E’ per ciò che vorrei spendere qualche parola su temi a me consueti, implicati dalla nozione di Intelligenza Artificiale per introdurre qualche dubbio e qualche proiezione concreta nelle profilate prospettive di spesa pubblica del settore.

Anzitutto mi permetto di ricordare che non esiste una tecnologia AI ma che esistono ambiti pregiati di applicazioni varie AI per scopi diversi e modellistica dei dati/informazioni, capaci di generare risposte automatiche “intelligenti” dalla macchina. Per intenderci, le tecnologie AI ricomprendono ma non si esauriscono nelle applicazioni di machine learning e deep learning, basi di dati intelligenti no sql, modellistica di analytics avanzata, applicazioni multiple di IoT, sviluppo di linguaggi ibridi, soluzioni di robotica in campi disparati, assistenti vocali e chatbot,  ecc.

Ordunque, una sintetica definizione di Intelligenza artificiale è quella di attività di emulazione del funzionamento della mente umana intesa quale motore dell’attività di pensiero e dei comportamenti fisici di ogni genere, negli umani: concetto da tempo acquisito da discipline specifiche della conoscenza quali la linguistica e la psicologia cognitiva, ad esempio. L’intelligenza facente capo alla mente si basa sulla conoscenza ovvero sull’immissione di informazioni sensoriali multiple dal mondo esterno elaborate e memorizzate nel sistema cognitivo dell’individuo. Essa, dunque:

  • utilizza diverse tipologie di input sensoriale/modale
  • si serve di canalizzazioni sensoriali che implicano specificità dei dati
  • interpreta, correla con rapporti logico-semantici i dati e li modella
  • si avvale di abilità e linguaggi traduttivi tra esperienze sensoriali diverse e di metalinguaggi.

Ne consegue che le informazioni acquisite e correlate da un sistema di pensiero innato e universale insieme all’acquisizione di conoscenza specifica in ogni comunità del pianeta secondo leggi immanenti e strumenti cognitivi, primo tra tutti il linguaggio umano verbale, sono oggetto di modellizzazione. L’acquisizione di dati e informazioni di varia natura ovvero la conoscenza è poi apprendimento da parte della macchina. Da qui l’economia della conoscenza.

L’ acquisizione di dati da fonti diverse e relate ad ambiti e scopi diversi deve essere sottoposta a:

  • definizione e sviluppo di modelli con specifiche entità di dominio e relative relazioni logico-semantiche: cluster di dati, ricerca e definizione univoca, ecc.
  • vocabolari semantici controllati
  • traduzione tecnologica e popolamento dei dati in tool digitali
  • linguaggi di metadati di tipo ontologico
  • applicazione di metadati
  • formati di rappresentazione dei dati

E’ dunque la tipologia dei dati/informazioni e la loro strutturazione secondo modelli di analisi linguistica e psicologico-cognitiva di natura verbale e non verbale che occorre acquisire e tradurre in architetture cognitive digitali e successivamente in apprendimento digitale da parte della macchina mediante appositi algoritmi. Nessun algoritmo prescinde dai dati e dalla qualità dei medesimi.

Le architetture dell’informazione e dei dati sono oggetto dunque dell’intelligenza artificiale.

Va rilevato che le applicazioni di machine learning sono ancora largamente improntate a modelli psicologici comportamentisti cui sono linguisticamente affiancati modelli statistici laddove si tratti di transazioni fondate su scambi informativi verbalizzati, come negli assistenti vocali e nelle chatbot.

Ma è evidente che l’articolazione della conoscenza da acquisire in domini e subdomini tematico-funzionali, ambiente, economia, finanza, sanità, trasporti, ecc. consente di individuare ed enucleare entità linguistico-cognitive che corrispondono potenzialmente, insieme a modelli sintattici e testuali del linguaggio umano, la rappresentazione della conoscenza apprendibile da parte della macchina. La modellizzazione della conoscenza e dei dati costituisce il problema teorico fondamentale dell’intelligenza artificiale.

Non è casuale il fatto che le prime ricerche di intelligenza artificiale degli anni 60 e 70 producano modelli di relazioni-logico semantiche su base verbale designate normalmente come memoria semantica.

Gli sviluppi successivi danno luogo a ricerche tese a sviluppare, tra le altre soluzioni, ontologie, ovvero rappresentazioni di conoscenza al cui cuore stanno vocabolari semantici controllati.

Un riferimento interessante della ricerca al ruolo delle ontologie nello sviluppo tecnologico digitale viene da un volume collettaneo introdotto da Guarino a fine secolo scorso (N. Guarino (a cura di), Formal Ontology in Information Systems, IOS Press, Amsterdam, 1998). Circa vent’anni fa Guarino postulò la crescente rilevanza dell’ontologia nei campi dell’intelligenza artificiale, della linguistica computazionale e della teoria dei database e menzionò specifici campi di ricerca come ingegneria della conoscenza, rappresentazione della conoscenza, modellistica qualitativa, ingegneria del linguaggio, progettazione del database, modellizzazione e integrazione delle informazioni, analisi orientata agli oggetti, recupero ed estrazione di informazioni, gestione e organizzazione della conoscenza, progettazione di sistemi basati su agenti.

A livello metodologico Guarino sottolineava la principale peculiarità dell’ontologia in quanto approccio altamente interdisciplinare in cui la filosofia e la linguistica svolgono un ruolo fondamentale.

Ora, leggere documenti che invitano le amministrazioni pubbliche a fornire le loro ‘ontologie’ e vocabolari semantici fa accapponare la pelle. Gradiremmo sapere dove e come sarebbero stati prodotti a meno che chi scrive intenda scherzosamente l’ontologia come un modo per definire una classificazione più o meno estemporanea, come talora accade nelle basi di dati e sistemi informativi o nei portali pubblici e privati. Già rapporti pregiati quali quelli forniti da ENISA nell’ambito della sicurezza, ad esempio, segnalano ad oggi l’impotenza incongruente dei CERT e CSIRT nella semplice classificazione, neppure tassonomica del settore. E la ricerca contemporanea statunitense ed europea su ontologie della sicurezza, per menzionare un settore specifico di cui posso parlare, consiglia cautela nel maneggiare troppo sportivamente concetti complessi e affatto definitivi.

Veniamo al dunque, dunque. Nella strategia nazionale che vanta oggi un apposito ministero dell’innovazione digitale, dovrebbe essere data centralità allo studio e alla ricerca in linguistica, semantica, semiotica e psicologia cognitiva, applicate all’informatica e viceversa nelle diverse articolazioni interne di specifica utilità. Oggi non esistono corsi interdisciplinari così congegnati specificamente. Non mi riferisco all’ingegneria linguistica, pur pregiata e necessaria ma a modellizzazioni di conoscenza e, dunque, architetture e ontologie su base semantica, testuale, pragmatica, linguistica e semiotica studiate in ambito informatico.

Il lavoro di ricerca che ho introdotto nel mio insegnamento a Tor Vergata ha sfornato qualche architetto della conoscenza e della comunicazione (pochi ahimé); è l’approccio allo sviluppo di tool digitali che applico con i miei collaboratori e sviluppatori informatici, operando in una prospettiva tuttavia inadeguata a competere nel mercato e in una logica artigianale faticosa in contesti alieni. Occorre a mio avviso rivisitare i contenuti e le prospettive delle nuove competenze digitali in vari modi, allargando le strettoie storiche della formazione tradizionale ingegneristica e informatica, come avviene all’estero.

Una seconda raccomandazione concreta va all’apprezzamento dei prodotti/tool digitali nostrani, promuovendo le collaborazioni tra grandi e piccole/medie imprese capaci di esibire effettivamente prodotti innovativi. Intendo, dunque, la possibilità di crescere nell’economia digitale e di far crescere nuove generazioni di sviluppatori in un mercato che non è, per fortuna, ad oggi affatto riservato e chiuso nei recinti macro delle società OTT.

All’umanesimo ripetutamente evocato nel suo programma di governo dall’attuale Presidente del Consiglio Conte come visione di una nuova qualità della vita sociale mi permetto di affiancare la nozione di neo-umanesimo digitale, nozione da me trattata qualche anno fa nella prolusione tenuta all’Università del Piemonte orientale e tesa a promuovere nuove competenze digitali nell’economia della conoscenza. La nozione tratta il digitale come integrazione creativa e semiotica di linguaggi e contenuti evocando nella prospettiva multidisciplinare neo-umanistica lo sviluppo del genio leonardesco. La considerevole biblioteca multidisciplinare tecnica e scientifica di Leonardo assieme all’esperienza delle arti ‘meccaniche’ nel negozio del Verrocchio produssero la meraviglia di pensiero e le realizzazioni e i progetti geniali che oggi possiamo ancora accostare. Riprendere un percorso creativo in chiave digitale non è una visione ma una concretezza nei laboratori di sviluppo digitale e nelle accademie all’estero. Come tradurre in concreto il neo-umanesimo digitale appare qui oggi un semplice wishful thinking.

E, invece, venendo alla concretezza, una nuova e diversa politica industriale che crei e apra il mercato digitale anche alle piccole e medie imprese innovative non con le briciole dei sub-appalti ma con livelli economici qualitativi effettivi, effettivamente remunerati, è l’auspicio.

In un saggio recente sulle ontologie della cybersecurity su cui lavoro da alcuni anni ho letto con grande ed espressa invidia il fatto che in Germania sono in corso ben 14 progetti di ontologie della cybersecurity per le infrastrutture critiche.

La nostra piattaforma, Pragmema Poc, sulla cybersecurity e la protezione dei dati, (v. www.pragmema.it/cdc ) e la costituzione di un partenariato PP interdisciplinare e interfunzionale, che ha avviato un piano di formazione nazionale in materia (www.cybersecurityprivacy.it) sono stati tradotti di recente in un Centro di competenza sulla trasformazione digitale, la cybersecurity e la protezione dei dati: sono esperienze in corso che proponiamo all’attenzione del governo pur avendo già ricevuto un patrocinio benemerito da AGiD e Garante.

La piattaforma ontologica di intelligenza artificiale, Pragmema POC, presentata in sedi internazionali, dispone di una suite di applicazioni e servizi destinati ai vari CERT, CSIRT, SIEM, SOC e alle attività di coordinamento nazionale ed europeo in materia di sicurezza; POC è altresì destinata a servizi specifici anche alle PMI e agli enti locali. Sull’implementazione delle applicazioni in materia è nostra intenzione convogliare giovani energie: ma il decollo di soluzioni digitali di marca nazionale e di impronta diversa nell’ambito informatico e ingegneristico può risultare in una incomunicabilità apparentemente non superabile nelle sedi di sponsorizzazione o investimento. Gli scogli competitivi in un sistema non abituato allo sviluppo interdisciplinare frenano la possibilità di coltivare competenze digitali avanzate di marca nazionale, utili e preziose in tutti i settori dell’economia digitale: dal turismo ai beni culturali, dall’energia ai mercati finanziari, dall’ambiente alla sanità ai trasporti.

Questa è l’ultima riflessione che propongo.

L’approccio che la strategia nazionale per l’AI richiama come ‘interdisciplinare’ va a mio avviso tradotto in un reale apprezzamento di soluzioni concrete nell’ambito dello sviluppo di AI: cerchiamo di evitare il moltiplicarsi di sigle e aggregazioni più verbali che produttive e tentiamo di concentrarci su reali opportunità di sviluppo dove agli investimenti corrisponda concreta innovazione.