l'analisi

La digitalizzazione in Italia tra Difesa, Pubblica Amministrazione e industry, a che punto siamo

di Giosetta Ciuffa, Giornalista |

Lo scorso 2 dicembre si è tenuto a Milano l’incontro "Digitalizzazione: una sfida multidimensionale", il tema principe della giornata è stato il confronto sulla Digitalizzazione e la sicurezza come processo di miglioramento continuo al fine di prendere una best decision.

Presso la I Regione Aerea dell’Aeronautica Militare, in piazza Ermete Novelli a Milano, il 2 dicembre scorso si è tenuto l’incontro “Digitalizzazione: una sfida multidimensionale” promosso da S3Consulting con la collaborazione della 1^ Regione Aerea, guidato da Antonio Spalletta, Managing Director di S3Conaulting, con la partecipazione di Oracle, Cisco, Hexagon Geospatial, Vmware, IRCCS Fondazione Santa Lucia, e con il Patrocinio e la partecipazione del Comune di Milano.

Introdotto dal Comandante della I Regione Aerea, Gen. D.A. Silvano Frigerio, e dal Comandante Forze di Combattimento, Gen. D.A. Francesco Vestito, il tema principe della giornata è stato il confronto sulla Digitalizzazione tra la Difesa, il resto della Pubblica Amministrazione e l’Industria come processo di miglioramento continuo al fine di prendere una best decision: come recentemente osservato dal capo SMD gen. Enzo Vecciarelli in occasione della 18^ Berlin Security Conference, ora le Forze Armate non fronteggiano più unicamente future minacce ma anche un ratio di accrescimento molto, troppo veloce ed è indispensabile operare come Sistema Paese, ponendo però l’aspetto umano al centro.

A tal proposito il gen. Enrico Degni, direttore del VI Reparto SMD responsabile per la «…transizione alla modalità operativa digitale e i conseguenti processi di riorganizzazione finalizzati alla realizzazione di un’amministrazione digitale e aperta…», ha evidenziato le tre direttrici in cui opera: trasformazione digitale, che non può essere slegata dalla formazione di figure che generino awareness coerentemente; innovazione ICT, per arrivare a costituire attraverso il programma DII (Defence Information Infrastructure) una infrastruttura Interforze integrata, flessibile, sicura, scalabile e in grado di rispondere efficacemente alle esigenze attuali e future; potenziamento della cyber defence, per arrivare domani ad avere una infrastruttura unica integrata che supporti l’erogazione di servizi evoluti in maniera resiliente e sicura.

Digitalizzazione e sicurezza

Maggior digitalizzazione comporta infatti necessità di un evoluto modello di sicurezza, con la nota criticità che una certificazione della seconda ha tempi lunghi e mal si adatta alla velocità della prima; il suggerimento resta comunque di proseguire il percorso tracciato dal Comando Interforze per le Operazioni Cibernetiche – CIOC, già comandato dallo stesso gen. Vestito, a stretto contatto con la Presidenza del Consiglio mediante il Nucleo per la Sicurezza Cibernetica. 

Quali invece le soluzioni delle aziende per una digitalizzazione “Defence tailored” sicura e continua nel tempo? Per il responsabile PA di Cisco, Luca Rizzi, il cyberspazio modifica il senso di perimetro, nella direzione di una pervasività digitale: non è però più sufficiente agire alla vecchia maniera in termini di contrasto ai pericoli della rete, in un momento storico in cui il 70% delle violazioni della sicurezza proviene da reti interne e dispositivi IoT, che saranno più di 28 miliardi entro il 2020, e il 60% di malware verrà crittografato. Ecco che Cisco si appoggia al paradigma “Zero trust“, che si muove sui tre vettori delle persone, dei processi e della tecnologia, perché le tecnologie siano affidabili, monitorandone ogni aspetto, ad esempio con un chip tra hardware e software affinché il primo riconosca il secondo come univocamente associato o con un software di riconoscimento di un malware nel traffico criptato senza doverlo decriptare.

Forti anche dell’esperienza maturata nella propria Networking Academy che dal 1999 offre corsi per avviare un processo che consenta realmente di fare come prima non si faceva e non piuttosto un meno innovativo fare meglio ciò che si faceva già, Rizzi ha annunciato l’apertura a gennaio di un centro “Cisco IXC” che collaborerà con università e enti di ricerca su eccellenza e innovazione per mantenere la posizione dell’Italia nel Patto Atlantico.

Per Maria Costanzo e Matteo Mattei di Oracle, l’informazione è un asset strategico e la datificazione, la possibilità di trasformare tutto in stringhe digitali, non ha limiti. Esempio ne è il catamarano con cui Oracle ha vinto l’America’s Cup: performance migliori originate da azioni migliori suggerite dall’analisi in tempo reale dei dati trasmessi dai 1.200 sensori del natante.

Fondamentale rispetto al passato è la rottura del silos: raccogliere e usare più informazioni possibili, anziché una sola selezione, porta a risultati più efficaci soprattutto se si lascia agire il disordine, secondo il cosiddetto “vantaggio del caos” per cui quando il volume dei dati è elevato, bisogna lasciare che i sistemi inferiscano sulla probabilità di prendere la decisione migliore; inoltre, focalizzarsi non sulle cause ma sulle ben più importanti correlazioni e sui risultati degli analytics.

Machine To Human

In un contesto sempre più vicino in cui, grazie alla condivisione dei dati IoT, si passa a un’era precognitiva fino alla singolarità, dove il protagonista è un avatar ottenuto verticalizzando il pilota che, in questo ecosistema “machine to human”, è unico e irripetibile al punto da rendere inutilizzabili standard di simulazione.

In futuro, per Oracle, si potrà persino integrare il suo pensiero con algoritmi machine learning e trasmetterlo da terra in volo; il supporto quindi che può venire al pilota dall’analisi degli innumerevoli dati sarà proprio rimanere umani.

Secondo Rodolfo Rotondo, senior business solution strategist di Vmware, l’attuale approccio alla sicurezza IT si deve evolvere. Un tempo bastava avere una città fortificata per difendere i propri confini e le minacce esterne erano questione di urban warfare, ora si verifica il paradosso per cui si crea un’insicurezza tentando di apportare sicurezza, con il risultato di far lievitare i costi. Secondo il forecast Gartner per il 2019 presentato lo scorso gennaio, la spesa IT sarebbe aumentata del 3,2% (3,8 trilioni di dollari) e quella per la sicurezza del 45% (124 milioni al 2022): una previsione di +900% dal 2018 in perdita di sicurezza equivalente a 6 trilioni di dollari da qui al 2021. Quindi, più si spende in sicurezza, maggiori saranno i costi di difesa dal cybercrime: la modifica deve essere sostanziale, non incrementale.

L’importanza dei dati

Il combattimento com’è ora è asimmetrico, siamo oggi però in grado di cambiare il campo di battaglia, e ciò darà un vantaggio competitivo: il contesto. Nella propria casa, di notte, da un rumore in una stanza si capisce che qualcosa non va: perché dunque non accade lo stesso con i dati anche se stiamo giocando in casa? Perché ragioniamo da un punto di vista infrastrutturale senza avere idea del contesto, sostiene Rotondo: cioè guardiamo reti e perimetri per cercare le minacce ma in effetti non sappiamo cosa fanno “le stanze”, ossia i pezzi di computazione.

La proposta è un’implementazione in senso adattivo del già citato concetto di “Zero trust” con un risk assessment continuativo e real time che permetta di ridurre il campo di battaglia, aiutati dal machine learning, secondo azioni di previsione, prevenzione, ispezione e risposta a livello di accesso, di cloud, di carico e di rete. IA e spirito di squadra tra tutte le componenti coinvolte riducono inoltre il rischio anche in caso di data leak, sopperendo con nuove azioni a una mancanza quale potrebbe essere la vulnerabilità di una patch. Così, con l’analisi di un comportamento che non ci attenderemmo da quell’applicativo, potremmo scoprire un data breach come quando in casa sentiamo un rumore che ci desta sospetti perché inusuale a quell’ora in quel contesto.

La Cyber Defence

E questa è una delle direzioni dove ci suggerisce di proseguire il Parlamento Europeo con la risoluzione sulla Cyber Defence del 13 Giugno 2018, risoluzione tutt’oggi attuale nelle principali direttive.

Partendo da “La terza ondata” di Alvin Toffler, lo psicologo Fabrizio Piras dell’area di ricerca del Laboratorio di Neuropsichiatria e Centro per i disturbi cognitivi dell’IRCCS Fondazione Santa Lucia ha incentrato la propria relazione sulle difficoltà del cervello di interpretare la mole di informazioni veicolate dai nuovi media: un costante flusso comunicativo one-to-one ma performativo, condiviso globalmente e basato sull’interazione uomo-computer.

La rivoluzione digitale ha apportato enormi capacità di calcolo ma non si è arrivati a un adattamento cerebrale a fronte invece di minore lavoro fisico, sforzo cognitivo sempre più demanding ed enfasi crescente sulle attività di decision making.

Si perde la linearità nella trasmissione culturale -da docente a discente come dall’inizio alla fine del testo- e la conservazione dei testi lascia il posto ai big data, la cui gestione è al di là della nostra portata e in grado di essere interpretato solo dagli strumenti che lo hanno prodotto, in un processo in cui laddove è richiesta interattività il coinvolgimento cognitivo è il fattore più importante.

Mentre in parallelo si assiste all’estrema esemplificazione della gestualità del web che tende a ridurre lo sforzo cognitivo rendendo lo share e like alla stregua di un riflesso.

L’importanza delle soft skill

Le soft skill più coinvolte diventano quindi altre e, anche grazie a maggiori capacità predittive che ovviamente non sempre arrivano alla nostra percezione conscia, il decision making si baserà sempre più sul feedforward, ossia la selezione a priori di un’azione in base alla predizione di un futuro stato, e sempre meno sul feedback, ossia la regolazione a posteriori di un comportamento in base a una valutazione della rispondenza degli esiti rispetto ad un obiettivo dato.

In questo nuovo scenario, dobbiamo quindi considerare che i sistemi debbano essere adeguati alle capacità cognitive, considerando che queste ultime sono mediamente rimaste nella loro natura le stesse, che peggiorano con l’età ma anche che sono plastiche e pertanto possono essere modulate grazie a programmi di cognitive enhancement, così come mostrato in numerose ricerche completate dalla Fondazione Santa Lucia.

Oltre al Patrocinio il Comune di Milano ha voluto descrivere attraverso l’ass. a Partecipazione, Cittadinanza Attiva e Open Data Lorenzo Lipparini l’elevato livello di digitalizzazione dei servizi forniti ai Cittadini Milanesi. La capacità del Comune di fornire servizi di facile utilizzo indipendentemente da eventuali limitazioni, ad esempio limitazioni fisiche, tecnologiche o ambientali ed il continuo miglioramento delle capacità digitali non può prescindere dall’innovazione.

In particolare la grande attenzione verso i temi ambientali riporta alla necessità di potersi dotare di informazioni dettagliate sulla meteorologia che vede nell’Aeronautica Militare uno dei principali attori in ambito nazionale e diventa facile pensare come il mondo digitale possa accrescere le potenziali collaborazioni tra i vari enti della PA.

Non poteva mancare l’intervento della Polizia che, nelle parole del direttore del Compartimento Polizia Postale e delle Comunicazioni di Milano Angelo Parente, ha fatto presente le continue minacce che ormai coinvolgono tutti: istituzioni, aziende e privati. Soprattutto questi ultimi hanno scarsa consapevolezza poiché ritengono che un computer infetto sia soggetto unicamente a crash mentre molti virus odierni agiscono silentemente senza danni visibili, poiché ora merce di scambio è anche la reputazione.

La minaccia globale dei Ransomware

Altra minaccia globale i ransomware, di cui sono state piene le pagine dei giornali: un riscatto, meglio ancora nella meno tracciabile criptovaluta, in cambio della restituzione dei dati che vengono lasciati dove sono sempre stati, ma cifrati, quindi inaccessibili. Per non parlare dei rischi che corrono le infrastrutture critiche (acqua, energia, trasporti, banche, sanità): un tempo per difenderle bastava presidiare un luogo fisico.

Infine, la visione dell’AM: già con il gen. Alberto Rosso, Capo SMA, è stata introdotta la quinta generazione di velivoli in grado di inviare dati e trasformarli in informazioni in ambito Difesa, in attesa di operare integrativamente nel multidominio, come già discusso in sede Nato. Il col. Cosimo De Luca, del IV Reparto SMA, ha esposto gli effetti della L. 244/12 ossia razionalizzazione di personale e applicativi, formazione dei meno esperti con realtà aumentata e processi certificati con blockchain ed evidenziato come gli stessi siano stati comunque una spinta verso il processo continuo di digitalizzazione caratterizzato da una connotazione fortemente innovativa.

Gli esempi pratici portati sono nell’air traffic management: il futuro sarà la stazione di controllo remota, insieme ad Enav, con la quale già è in essere la partnership D-Flight per l’Unmanned Aerial Vehicles Traffic Management (UTM), ovvero i droni. Altro settore di punta è il servizio meteo, la cui prossima mossa sarà la standard weather station in sostituzione delle 48 postazioni meteo, con conseguente aumento della resilienza della rete centrale per via del sollevamento dall’onere computazionale, nell’attesa di allargare il campo di utilizzo di big data, IOT, manutenzione predittiva e AI anche nelle previsioni meteo.

Pa digitale: all digital e AI oriented

La nuova connotazione tecnologica del potere aerospaziale ha aperto nuove frontiere consentendo una rivoluzione netcentrica delle operazioni che con l’introduzione degli F-35 ha permesso l’accelerazione in termini qualitativi e di accrescimento innovativo di tutta la forza armata.

La tendenza all digital e AI oriented nella PA non solo quindi è possibile ma in parte è già in corso: la sua importanza ai fini di crescita e razionalizzazione è ampiamente riconosciuta, come lo è la necessità di agire sistematicamente non tralasciando un’adeguata formazione a tutti i livelli.

E come evidenziato da Antonio Spalletta nell’ambito della trasformazione digitale oltre ad incrementare la sicurezza sarà necessario valutare costantemente come la Multidimensionalità, caratterizzata da informazioni sempre più complesse e frutto di correlazioni, sia da arricchire con nuovi analytics sempre verificando l’adeguamento alle capacità cognitive dell’utilizzatore.