il documento

Lepida vara il decalogo big data 2.0

di |

Nuova versione del decalogo sui big data per l’Emilia Romagna con la raccolta di ulteriori suggerimenti, criticità e best practice sul territorio, con la roadmap per la realizzazione della piattaforma sempre più chiara e partecipata.

In Emilia Romagna gli enti pubblici sul territorio hanno iniziato a raccogliere le proprie impressioni, perplessità, esperienze e best practice sull’utilizzo dei big data. Tra questi abbiamo il Comune di Bologna, ad esempio, che ha portato avanti un importante progetto sul “Cruscotto Welfare”, ma anche l’Autorità Garante della Concorrenza e del Mercato (AGCM), il Garante per la protezione dei dati personali (Garante Privacy) e l’Autorità per le Garanzie nelle Comunicazioni (AGCOM), che hanno invece pubblicato le linee guida di cooperazione e le raccomandazioni di policy sullo sviluppo dell’economia digitale e il fenomeno dei big data.

Si tratta di osservazioni e suggerimenti relativi alla prima versione del decalogo big data curato da Lepida e presentato a Bologna nel mese di maggio 2019. A fine ottobre, sempre Lepida, nell’ambito del Festival After Futuri Digitali svoltosi a Bologna, in occasione dell’evento “Big Data e i futuri digitali”, ha riproposto la versione 2.0 del decalogo big data, con le novità degli ultimi mesi e le prospettive per quelli futuri.

I punti del decalogo discussi ed elaborati a Bologna, si legge in una nota della società in house della Regione, “oltre a costituire una solida base di confronto e discussione sul significato che concretamente ha per un’organizzazione il potersi dotare di un’infrastruttura Big Data, ha fornito a Lepida una roadmap per la realizzazione della piattaforma che, dopo 10 mesi di lavoro, è già in grado di fornire indicatori (analytics) che rispondono a domande semplici, ma di interesse per le amministrazioni alle quali – con altri mezzi – sarebbe difficile dare risposte”.

A partire dall’inizio del nuovo anno, tra i primi passi da compiere, fondamentale è dare vita a una Community per la definizione e realizzazione di modelli e algoritmi “open” a disposizione della PA; consolidare l’asset tecnologico; aggregare competenze e necessità per identificare quale elemento, della complessa catena di piattaforme e processi che costituiscono l’ambito Big Data, sia da affrontare in via prioritaria. Intanto, “prosegue lo sviluppo e sono stati realizzati i primi moduli per l’acquisizione nel data lake dei dati dei sensori censiti sulla piattaforma SensorNet, per l’esposizione in dashboard real time aggregate geograficamente e caratterizzate per tipo di sensore, dato acquisito, ambito di monitoraggio”.