Archivio dell'autore: Alberto

Wikicrazia a Riomaggiore: debutta il Nocciolo Duro



Stream videos at Ustream

Qualche settimana fa, discutendo su questo blog, un gruppo di ardimentosi lettori del mio Wikicrazia si sono offerti di presentare il libro quando io sono impossibilitato a farlo. Il che capiterà spesso, visto che abito all’estero.

L’idea ha preso corpo. Quello che chiamo il Nocciolo Duro ha già messo in cantiere le prime due o tre missioni. Si comincia domenica 28 alle 21, da Riomaggiore nelle Cinque Terre: la presentazione sarà fatta da Luigi Gioni del Nocciolo, mentre io – banda permettendo – interverrò in Skype. A Riomaggiore Franco Amorese ha fatto le cose in grande, con grande dispiego di tecnologia, live streaming (lo potete vedere anche da questo blog) e perfino una collezione di citazioni su Twitter. Grazie a Franco, a Luigi e a tutto il Nocciolo. Ad maiora.

Come gli open data cambieranno la ricerca sociale


Circa un anno fa, mentre cercavo di fare la mia parte nella primavera silenziosa del governo aperto in Italia, ho fatto una scoperta straordinaria: grandi organizzazioni autorevoli che raccolgono e diffondono dati economici e sociali li stavano rilasciando in formati aperti. Questi dati sono molto rilevanti per quello che faccio nella vita: setacciare informazione per costruire modelli di mondo localmente rilevanti, sulla base dei quali agire in direzione di qualche forma di miglioramento nel nostro ambiente sociale ed economico. I dati, naturalmente, sono una forma di informazione. Improvvisamente ce n’erano molti: Banca Mondiale, OCSE, Eurostat e altri si erano messi a pubblicare grandi basi dati scaricabili. Ho passato un po’ di tempo a familiarizzarmi con gli strumenti di preview e di analisi completa messi a disposizione da queste organizzazioni: alcuni sono più intuitivi di altri, ma in generale la cosa mi è sembrata noiosa e dispendiosa in termini di tempo. È così che ho cominciato a preoccuparmi che la gente potesse trovare il tutto troppo complicato, e finisse per non usare affatto i dati: viene da qui la mia ossessione per stimolare la domanda di dati e la data literacy.

Pare che abbia sopravvalutato le difficoltà di interagire con i dati aperti. Qualche settimana fa avevo bisogno di alcuni dati che riguardano i giovani europei non occupati e non impegnati nella scuola, nell’università o nella formazione professionale (NEETs). Mi sono accampato sul sito di Eurostat e, con un po’ di tentativi, errori e conversioni di file sono riuscito a produrre il grafico tutto colorato che vedete qui sopra. L’ho fatto in modo che indicasse a me e ai miei colleghi una storia piuttosto potente, e cioè che la transizione dalla parziale indipendenza dell’adolescenza alla piena indipendenza della vita adulta è diventata così lunga e difficile che il concetto di “giovani” si sta sfaldando in una diminuzione generale dell’autonomia della popolazione adulta. Il mio lavoro è stato reso molto più semplice dal pre-filtraggio online dei dati: invece di farmi scaricare tutto il database, Eurostat mi ha permesso di selezionare gli indicatori, i paesi e gli anni che mi interessano. Una volta soddisfatto, ho cliccato “download”, e il sistema ha generato per me un file che contiene solo quelli. È più difficile che, poniamo, guardare Captain America, ma molto più semplice che non scartabellare pagine di tabelle.

Questo mi ha fatto pensare a come nuovi strumenti abbiano rivoluzionato la professione di economista già due volte nell’arco della mia vita. Quando ho iniziato a lavorare nel 1991, ero parte della prima generazione di ricercatori che non ha mai fatto ricerca senza i personal computer. Gli istituti di ricerca avevano ancora segretarie per battere e rilegare i rapporti finali (anche se quei posti di lavoro si stavano rapidamente liquefacendo); i miei colleghi più anziani avevano prodotto un sacco di risultati solidi usando mainframes, calcolatrici e macchine da scrivere. Di uno di loro si diceva che avesse invertito una matrice 20×20 a mano per fare l’analisi input-output di un’economia locale. Un anno dopo, a Londra, ho visto per la prima volta il terminale di un computer connesso a Internet; nel 1994 era diventato normale, per gli economisti, trasmettersi documenti in formato digitale da una parte all’altra del pianeta.

I dati aperti potrebbero essere la prossima rivoluzione in questo senso. I non-quantitativi come me sono abituati a rivolgersi a uno statistico per qualunque cosa vada oltre il copia-e-incolla di grafici e tabelle prodotti da qualcun altro. I dati aperti e il software a buon mercato per la statistica e la visualizzazione stanno cambiando questa situazione: qualcuno come me, che capisca un po’ di statistica ed econometria, può provare a montare semplici modelli di regressione al volo, trasformandosi da lettore a produttore di dati elaborati. Quando troviamo qualcosa di promettente, possiamo sempre rivolgerci allo statistico perché ci lavori sopra di fino. I benefici sono evidenti: più intuizioni possono essere sottoposte a un reality check rapido, anche se rozzo; e man mano che interagiamo con i dati, ci ritroviamo a cercare articoli di Wikipedia su cose come misure di fit o logit multinomiali. Diventiamo più bravi a elaborare i dati, e quindi a interpretare i dati elaborati da altri. È plausibile che la prossima generazione di ricercatori userà i dati aperti tutti i giorni, come oggi usiamo Google, e si chiederà come facessero quei poveri diavoli negli anni 2000 (noi) a farne a meno. Proprio come faccio io quando penso al mio collega con la sua matrice 20×20 da invertire a mano.

550 euro per un post: il fiasco inevitabile dell’e-participation

Pedro Prieto-Martin, ricercatore spagnolo e occasionale commentatore di questo blog, ha pubblicato un saggio in cui fa il punto sull’e-participation in Europa. La sua diagnosi è impietosa:

  • la Commissione Europea è stata il primo motore della disciplina, lanciando diversi programmi di ricerca dedicati.
  • dal 2000 sono stati finanziati almeno 74 progetti in questa direzione, per un costo totale di circa 187 milioni di euro; una rete di eccellenza per altri 6; e, più tardi, una serie di iniziative di valutazione e di messa in rete delle esperienze fatte. Questo ha consentito l’emersione di una comunità di ricercatori che lavora sul tema.
  • uno di questi programmi, eParticipation Preparatory Action, è stato oggetto di una valutazione sistematica. Progetti finanziati: 20. Costo medio: 715.000 euro. Numero medio di utenti per progetto: 450. Numero medio di contributi user generated (post o firme a petizioni) per progetto: 1300. Costo medio del post o della firma alla petizione per il contribuente europeo: 550 euro.

La comunità di ricerca sull’eparticipation è riuscita a ignorare questi numeri. Gli studi di valutazione dei progetti della Preparatory Action sono “unanimemente positivi”. Nonostante la richiesta della Commissione di una rigorosa analisi costi-benefici nessuno di questi studi avrebbe mai citato il dato dei 550 euro. E la Commissione stessa ha deciso, se pur con qualche correzione, di continuare sulla stessa strada: la principale differenza tra questa prima generazione di progetti e quella successiva (progetti approvati nel 2009 e 2010) è, secondo il saggio, il budget, che è cresciuto fino a raggiungere la cifra media di 2,8 milioni di euro. Come spiegare un’omissione così clamorosa? Secondo l’autore

Temi di questo tipo sono come il proverbiale elefante nel soggiorno di casa: trattarli è problematico, perché la loro stessa esistenza tende a essere negata a causa della loro complessità e dell’imbarazzo che causano. Il risultato è che non si riesce nemmeno a riconoscere che esistono e a discuterli, figuriamoci a risolverli.

Prieto-Martin pensa che la ragione della performance insoddisfacente dei progetti di e-participation sia essenzialmente questa: in linea con la tradizione delle politiche europee dell’innovazione, hanno seguito una logica “push”. Questa consiste nel fornire incentivi ai produttori di tecnologie innovative a fornirle a utenti più o meno acquiescenti, nella forma che più conviene ai produttori stessi. E i produttori hanno risposto con entusiasmo; purtroppo – in parte a causa della generosità dei finanziamenti – si trattava di soggetti non molto adatti ad innovare. I “soliti sospetti”: organizzazioni abituate alla progettazione europea, che si muovono bene nelle regole burocratiche di questi programmi. Queste regole sono nate per garantire il buon utilizzo del denaro pubblico ed un’assegnazione imparziale ma – come spiega bene Augusto Pirovano di CriticalCity in questo video fulminante – finiscono per essere escludenti nei confronti delle piccole imprese e associazioni esponenti della società civile, i veri innovatori.

Prieto-Martin è fortemente critico, e a ragione. D’altra parte non credo che abbia senso incolpare la Commissione Europea per questo fiasco. È una burocrazia weberiana: il suo potere discrezionale è molto limitato by design. Come ho già scritto, tutte le burocrazie faticano molto ad avere rapporti con le comunità in rete: le comunità sono fatte di persone, e vivono nel rapporto tra persone, le burocrazie weberiane agiscono, invece, sulla base di regole standardizzate, che prescindono completamente dall’individualità. Quello che ho scritto in quell’occasione mi convince ancora:

[…] vedo solo una possibilità: un new deal tra la pubblica amministrazione e le donne e gli uomini che lavorano per essa. Il new deal funziona così: la PA deve dare fiducia e spazio per lavorare ai suoi servitori; e poi valutarne i risultati, premiare chi fa bene e punire chi fa male. Se ci sono abusi, si affronteranno caso per caso: progettare un intero sistema con l’obiettivo di prevenirne i possibili abusi rischia di renderlo rigido e disfunzionale.

Non sono un giurista, ma non credo proprio che le burocrazie weberiane possano autoriformarsi in questo senso: immagino che per questo ci sia bisogno di una normativa che proviene dall’esterno della burocrazia stessa, cioè dal legislatore. Fino a che questo non avverrà, un certo numero di elefanti accampati in soggiorno sarà inevitabile.