In principio furono Wikileaks, Occupy, la primavera araba. Dei movimenti sociali contro le diseguaglianze e la corruzione delle cariche istituzionali che possedevano un desiderio di trasparenza e partecipazione da parte dei cittadini.

Gli scandali della NSA americana, le spese folli delle varie regioni italiane sono oggetto delle infografiche più sofisticate. Il mondo digitale è un’esplosione di dati: questa libera circolazione può aiutare la lotta e la prevenzione della corruzione? In che modo? E quali dati possono rivelarsi utili?

A queste le domande si è cercato di rispondere nel panel promosso dal TACOD, progetto di ricerca sugli open data, finanziato dalla Commissione Europea. Molti gli ospiti dell’evento: Cecilia Anesi co-fondatrice di IRPI, Davide Del Monte di Transparency International Italia, Guido Romeo giornalista di Wired Italia e fondatore di Diritto di Sapere, Leonardo Ferrante per Gruppo Abele, Giuliano Palagi direttore della provincia di Pisa e membro di Avviso Pubblico, Stefano Pizzicannella del dipartimento funzione pubblica, Lorenzo Segato direttore di CRSSC, Benedetto Ponti ricercatore dell’Università di Perugia, Andrea Menapace co-fondatore di Diritto di Sapere.

Il fenomeno degli open data rappresenta una conquista sociale da parte dei cittadini e delle istituzioni in termini di trasparenza, consapevolezza e lotta ai soprusi compiuti dagli organi di potere. Importante in tal senso è stata l’approvazione della legge 190 nel aprile 2012, una prima svolta nel nostro paese riguardo la lotta alla corruzione delle pubbliche amministrazioni. “Siamo in un momento storico unico. I governi hanno capito finalmente l’importanza della trasparenza”, afferma Guido Romeo.

Il potenziale informativo degli open data è sotto gli occhi di tutti, ma rimangono alcune grosse problematiche: “Una mole infinita di dati crea opacità non trasparenza”, ricorda Andrea Menapace.

“Il problema che genera l’apertura dei dati è quello di liberare grandi quantità d’informazione in genere incomprensibili. A cosa serve averli a disposizione se nessuno all’interno della società civile può capirli?”, afferma Giuliano Palagi. Problema che non riguarda solo i singoli cittadini ma anche chi con questi dati ci lavora: “Studiare un PDF di 1500 pagine è complicato – dichiara Romeo – richiede tempo e possono esserci delle difficoltà nel rendere le informazioni ottenute comprensibili a tutti”. Da non sottovalutare sono poi i costi da sostenere nello studio e nella elaborazione da parte delle amministrazioni stesse, anche se Benedetto Ponti ribatte: “Gli studi sul programma di Open Government  istituito da Barack Obama dimostra che le iniziali spese possono portare a ricavi tra i 4 e i 5 miliardi di euro in futuro”.

Un altro problema rilevato da più relatori è la scarsa conoscenza e interesse che coinvolge ancora tanti cittadini italiani riguardo al tema: “Dobbiamo istruire la società civile”, afferma Davide Del Monte. La giornalista Cecilia Anesi si sofferma invece su alcuni problemi di trasparenza, raccolta e diffusione che coinvolgono le istituzioni italiane: “Nei nostri ministeri ci sono ancora numerosi dati – i così detti “grottoni” – che non sono nemmeno digitalizzati”.

Il dibattito si è concluso con alcune iniziative e soluzioni sulle quale focalizzare l’attenzione nel corso dei prossimi anni: promuovere lo studio e l’elaborazione dei dati nella società civile italiana, partendo dalle fasce d’età più giovani; rafforzare il controllo dei dati partendo dalle fonti. Un’altra questione è sapere come si è arrivati ad aggregare questi dati. Inoltre, è necessario incentivare lo studio e la creazione di moltiplicatori, così da rendere più fruibile ai cittadini la lettura. Riuscire a creare applicazioni che facilitino e velocizzino i tempi di elaborazione e istituire bandi e concorsi sul tema e infine costruire un dibattito su cosa è realmente utile conoscere e uniformare, come i metodi di raccolta nelle varie amministrazioni e nei vari livelli: comunale, regionale, provinciale e statale.

Andrea Mularoni
 @AndreaMularoni