PA digitale

Lepida: un decalogo big data condiviso per l’Emilia Romagna

di |

Raccolte le esperienze, le sperimentazioni, le best practice e le sollecitazioni degli enti del territorio regionale per la promozione della cultura del dato e delle competenze digitali. Nasce un primo decalogo sui big data, da ampliare nel tempo ed integrare con le nuove tecnologie come l’intelligenza artificiale.

Il decalogo big data condiviso non è solo l’obiettivo che Regione Emilia Romagna, Comuni, Unioni di Comuni, Province, aziende sanitarie, consorzi e fornitori, si sono dati per promuovere la cultura dei dati e comprendere i vantaggi insiti nelle informazioni che se ne ricavano, ma il titolo e il tema stesso di un incontro organizzato da Lepida con tutti gli enti regionali e territoriali.

Il direttore generale di Lepida, Gianluca Mazzini, ha chiesto a tutti i partecipanti all’incontro di esprimere in pochi minuti il proprio pensiero, le esperienze sul campo e le sperimentazioni relative ai big data, cercando al contempo di identificare i dati che sono già a disposizione e quelli che si vorrebbero avere, e di distinguere tra big e open data, definendo cosa si vuole fare con questi dati, cercando di capire nel dettaglio come indirizzare le finalità del trattamento, ottenere risultati e informare i cittadini.

Alla fine, da tutte le sollecitazioni raccolte, con uno sguardo anche all’intelligenza artificiale e agli smart data, Lepida ha potuto mettere giù un primo decalogo sui big data per la Regione, che si articola nei seguenti punti:
Citizen by design”, progettare servizi su big data pensando all’utente finale, al cittadino, alle associazioni, alle imprese;
Aspetti giuridici” e finalità e trattamento, Governo e pianificazione, privacy e proprietà/disponibilità del dato;
Conoscenza, Consapevolezza, Competenza”, cioè conoscere il proprio dato, ma anche quello di terzi che potrebbe aiutarci, capire la differenza tra dato open e dato big, definire il ciclo di vita del dato, chiarire skill e competenze di coloro che modelleranno il dato;
Standardizzazione dati, casi d’uso e vocabolari”, efficientamento e normalizzazione del dato, individuazione dei casi d’uso e analisi dei volumi e delle frequenze di aggiornamento, nonché attenzione alla storicità;
Complessità”, avviare un percorso virtuoso che al crescere della complessità di elaborazione, permetta comunque una riduzione dei costi del ‘sistema’ complessivo;
Interoperabilità, processi, algoritmi, modelli, servizi”: definizione, standardizzazione e condivisione delle modalità di interoperabilità dei sistemi, dei processi, algoritmi, modelli e servizi che vertono sui big data;
Qualità”, i dati sono ‘molti’ e di svariata natura, è necessario avere un dato pulito, avere la certezza dell’informazione trattata, sapere cosa ci dobbiamo aspettare nel trattare anche dati ‘lontani’ di 10/20 anni fa;
Formazione e Informazione”, la mancanza di obiettivi, la mancanza di informazione e la mancanza di conoscenza/competenza devono essere sanate;
Collaborazione“, tra piccoli e grandi enti, nel riuso e nella condivisione di best practice, per comprendere e sfruttare il valore sociale del dato;
Dati pubblici, dati privati”, condivisione virtuosa del dato, individuazione dei dati degli enti che possano essere di interesse ai privati e viceversa.