Open Data: perche’ abbiamo bisogno di una “fase due”

Scritto da:     Tags:  , , , , , , ,     Data di inserimento:  11 aprile, 2013  |  Nessun commento
11 aprile, 2013
open data 2

Visite: 3680

Era un pò di tempo che avevo in mente di scrivere questo articolo, ma  ho sempre rimandato in quanto, come sempre accade, riescono ad avere la meglio i progetti da seguire, le scadenze da rispettare, le docenze da preparare e chi più ne ha più ne metta.

Da più parti, infatti, negli ultimi tempi, stanno giungendo segnali che qualcosa sta cambiando attorno al dibattito in corso sugli Open Data. Il che rende questo articolo un pò più adatto ad essere scritto ora che non qualche tempo fa.  Negli ultimi tempi, infatti, molti tra gli attori principali che fin qui hanno agito a sostegno delle iniziative sui dati aperti stanno pian piano invocando la necessità di passare a quella che potremmo chiamare la “fase matura” degli Open Data.

Facciamo qualche considerazione. La prima è che è già da qualche anno che si parla in modo anche piuttosto “intenso” di Open Data. Pensiamo a tutte le iniziative lanciate dai vari Enti pubblici negli ultimi tempi, alle Agende Digitali locali e nazionali, alle varie competizioni sui dati aperti, alle iniziative di tipo legislativo intraprese a livello nazionale e a livello di governi regionali. Addirittura anche la presidenza britannica del G8 ha lanciato una iniziativa per arrivare a rilasciare un insieme di dataset Open in occasione del vertice dei Capi di Stato e di Governo del prossimo mese di Giugno.

Sembra quasi che Open Data abbia assunto le caratteristiche di una moda da seguire piuttosto che di una opportunità per la società. Questo fa sì che se da una parte si moltiplicano le iniziative legate a gli Open Data, dall’altra si punta ancora molto poco all’efficacia di tali iniziative.

E qui la seconda considerazione. Se infatti andiamo a guardare cosa sta accadendo sul fronte del riuso del dato, che ricordiamo essere l’elemento chiave degli Open Data, dobbiamo probabilmente constatare che sta accadendo ancora molto poco.

Le community di sviluppatori faticano al momento a trovare sufficientemente appetibili gli Open Data per progetti che possano andare al di là di un loro utilizzo come semplice esercizio. I data journalist non sono messi meglio. I dati di cui hanno più bisogno sono ancora ben custoditi all’interno degli uffici delle pubbliche amministrazioni. Le aziende e il mercato poi si stanno ancora interrogando su quali possano essere i modelli di business e di conseguenza quali possano essere gli investimenti da fare sugli Open Data per poter generare in qualche modo profitti.  Infine, chi vedeva gli Open Data come un elemento per la trasparenza dell’azione amministrativa e per l’accountability sta verificando come ci sia ancora molto lavoro da fare, e questo nonostante le iniziative di tipo legislativo che pian piano stanno finalmente vedendo la luce.

Tutto sbagliato tutto da rifare? Assolutamente no. Tutto quanto accaduto finora è stato necessario che accadesse nei modi che abbiamo conosciuto. Ma affinché gli Open Data possano effettivamente apportare quei benefici alla società che sono stati più volte ipotizzati è necessario passare ora ad una “fase due”, ad una fase “matura” dei dati aperti che potremmo chiamare probabilmente quella dell’“industrializzazione degli Open Data”.

Partiamo con ordine, e il punto di partenza è che dobbiamo riconoscere che non tutti i dati sono uguali. Abbiamo bisogno di dati che si prestano ad essere riutilizzati, e gli Open Data che esprimono potenzialità per essere riutilizzati non sono dati qualunque ma sono gli Open Data di qualità.

Ora, per qualità dobbiamo intendere non soltanto l’accuratezza del dato e magari la qualità della documentazione che va (sempre) rilasciata a corredo del dato. Un elemento fondamentale per la qualità è anche la tempestività con cui vengono rilasciati. Non dobbiamo dimenticare infatti che più tempo passa tra il momento a cui un dato si riferisce e quando quel dato viene reso pubblico che il dato inevitabilmente si depotenzia. Tutti i dati subiscono un depotenziamento con il trascorrere del tempo. Ovviamente la velocità con cui questo avviene dipenderà dal tipo di dato.  Un dato infatti si depotenzia tanto più rapidamente quanto più quel dato va a descrivere fenomeni che per loro natura cambiano più o meno velocemente nel tempo. I dati che descrivono fenomeni in tempo reale si depotenziano infatti molto più rapidamente di tutti gli altri. Pensiamo ad esempio ai dati del traffico su un tratto di strada, ai dati che indicano dove si trovano in quel momento i mezzi pubblici urbani, a quelli dei posti liberi nei parcheggi di una città, a quelli delle centraline per il rilevamento delle polveri sottili e così via.

Un’ulteriore caratteristica di qualità è il livello di dettaglio a cui il dato viene reso pubblico. Sin da quando si è cominciato a parlare di Open Data, lo si è fatto al grido di “raw data now”  quindi chiedendo a gran voce che fossero i dati “grezzi” ad essere resi pubblici.  Non sempre però il dato grezzo è pubblicabile in quanto spesso si porta dietro tutta una serie di problemi legati alla riservatezza e alla confidenzialità. Ad ogni modo, il dato va anonimizzato (quando serve farlo) e rilasciato a livelli di dettaglio spinti, ovviamente fin dove possibile, in modo da preservarne le potenzialità ma nello stesso tempo in modo da tutelare la privacy dei soggetti interessati.

Ma per ottenere dati di qualità serve puntare ad avere qualità nei processi che generano quei dati. Un ente pubblico genera dati all’interno degli uffici che gestiscono i vari processi amministrativi di cui quell’ente è responsabile. I dati vengono generati “spontaneamente” e quotidianamente in quanto conseguenza del lavoro ordinario di quella Pubblica Amministrazione. Produrre Open Data viene invece visto al momento come una attività separata da fare occasionalmente e che di frequente necessita di una fase supplementare di ricognizione e di “recupero” dei dati da rendere pubblici.

Ed è proprio da qui che bisogna partire per far si che la produzione di Open Data diventi invece parte integrante dell’attività ordinaria della PA.  In altre parole bisogna fare in modo che gli Open Data siano generati in modo strutturale all’interno dei vari processi amministrativi e questo lo si ottiene, ed è la parte più difficile, intervenendo proprio sull’organizzazione dei processi interni.

Infine una considerazione sulla copertura del dato. Un ulteriore elemento di qualità che va ad amplificare le potenzialità del dato è infatti la sua copertura territoriale, ossia la disponibilità dello stesso dato anche per altre regioni, province o comuni. Quello che invece accade è che i dati al momento hanno una caratteristica fortemente “locale”. Le amministrazioni che hanno  rilasciato il proprio catalogo Open Data lo hanno fatto in modo autonomo e indipendente e questo ha fatto sì che l’offerta di Open Data sia al momento fortemente frammentata e disomogenea sul territorio. Il che costituisce un grosso limite per chi voglia fare veramente qualcosa con i dati. Come se ne esce? Andrebbe forse sottolineato ancora una volta il valore della community, specie tra soggetti della Pubblica Amministrazione. E’ infatti attraverso il lavoro comune e la condivisione che possiamo colmare questo limite, ampliando l’offerta informativa di ognuno ed integrandola con quanto è stato fatto da altri. Per arrivare magari in modo spontaneo ad un Programma Open Data Nazionale condiviso. E questo, credetemi, varrebbe molto più di regole, programmi e normative calate dall’alto.

Lascia un commento


Ti potrebbe interessare anche: