2. Accedere all’intelligenza collettiva

New Orleans, 29 agosto 2005. Il ciclone Katrina investe la città, provocando danni molto superiori alle aspettative – e fortemente aggravati dal fatto che il governo degli Stati Uniti ne ha sottovalutato l’impatto e non ha disposto per tempo l’evacuazione. Già criticata per questo, nei giorni immediatamente successivi al passaggio del ciclone l’amministrazione del presidente Bush sembra non riuscire a mettere in campo un’azione efficace di soccorso. Nel frattempo alcuni hackers ottengono l’uso di server robusti da parte di aziende informatiche, mobilitano tremila volontari e con il loro aiuto mettono in piedi, in quattro giorni e a costo zero per il contribuente, un database ricercabile di notizie sui sopravvissuti all’uragano. Lo battezzano Katrinalist.

Per costruire Katrinalist è stato necessario risolvere un problema tecnico complesso: la rete era piena di notizie su singole persone, ma queste notizie non si trovavano su un unico sito, né erano organizzate in un formato comune. Occorreva dunque costruire un sistema che scandagliasse in continuazione molti milioni di pagine web, riconoscesse nel mare di bit ciò che era informazione sui sopravvissuti e associasse ciascuna informazione a un nome, un cognome e un indirizzo.

Chiedete a chiunque: quanto tempo e quanto denaro servono a un’agenzia governativa per realizzare un database? La risposta sarà: uno-due anni e diversi milioni di euro. Come è stato possibile, per una coalizione apparentemente amorfa di cittadini, senza un’organizzazione e senza denaro, ottenere un risultato del genere? E soprattutto: perché questa clamorosa differenza di performance tra l’azione di queste persone e le politiche pubbliche?

Questo libro sostiene che la differenza tra la velocità e l’impressionante efficienza di Katrinalist e la penosa lentezza e gli sprechi del governo americano risieda nella capacità degli uomini e delle donne di Katrinalist di mobilitare l’intelligenza collettiva. “Intelligenza collettiva” può sembrare un concetto da film di fantascienza o da new age, ma non lo è affatto. Ci sono ormai molti casi, studiati e documentati nel dettaglio, che illustrano la straordinaria forza d’urto di un gran numero di cervelli umani che desiderano collaborare e sono organizzati in modo da poterlo fare.

Mobilitare l’intelligenza collettiva

Uno dei più famosi è quello del sistema operativo Linux. La sua storia comincia nel 1991, con una nota postata su un gruppo di discussione sul tema dei sistemi operativi dal giovane programmatore finlandese Linus Torvalds. La nota dice:

Sto facendo un sistema operativo (gratis: è solo un passatempo, non sarà grande e professionale come GNU…), vorrei sapere quali caratteristiche sono più importanti per la gente. Qualunque suggerimento è benvenuto, ma non vi prometto di realizzarli 🙂

Una delle prime risposte – viene da un’università austriaca – è questa:

Questo sistema operativo mi interessa molto. Avevo già pensato di scriverne uno mio, ma ho deciso che non ho il tempo per farlo tutto da zero. Ma credo che troverò il tempo per aiutarti ad allevare questo sistema operativo neonato 🙂

Dei primi dieci programmatori che corrispondono con Torvalds, ben cinque fanno cambiamenti importanti. In pochi mesi il sistema operativo neonato ha una prima versione funzionante; un team di sviluppo globale (oltre a Torvalds, vi contribuiscono sviluppatori da Austria, Islanda, USA, Finlandia, Regno Unito, Brasile, Australia, Canada, Germania e Olanda); e un nome, Linux. A questo punto Torvalds decide di pubblicare il codice con una licenza che si chiama GPL; questo significa che chiunque può usare il sistema gratuitamente e chiunque può modificarlo, a condizione che renda i cambiamenti fatti disponibili per gli altri utenti. Nel corso del tempo Linux ha attratto i contributi di migliaia di sviluppatori, che hanno dato vita a un’organizzazione prima informale e poi via via più strutturata1 .

Oggi Linux è riconosciuto come un sistema operativo affidabile e potente, disponibile gratuitamente; gira su un quarto dei server del mondo; attira consistenti investimenti da parte di grandi imprese IT (secondo l’analista americano Don Tapscott, nel 2007 IBM da sola investiva 100 milioni di dollari all’anno nello sviluppo di Linux); e sta al centro di un ecosistema di servizi, consulenze e sviluppo software il cui valore dovrebbe raggiungere i 50 miliardi di dollari nel 2011 (per fare un paragone, il fatturato 2008 di Fiat è di circa 36 miliardi)2 . Non ci sono dubbi sul fatto che Linux sia un prodotto di classe mondiale; e questo prodotto è stato sviluppato non da una grande impresa, ma da una tribù globale di persone dotate di un’organizzazione emergente e non progettata, che contribuiscono gratuitamente al progetto.

L’intelligenza collettiva, quindi, esiste, e sa operare concretamente. Si potrebbe obiettare che essa riguarda essenzialmente la produzione di software: i volontari di Katrinalist e il gruppo riunito intorno a Torvalds sono sostanzialmente tutti programmatori, e quello che hanno fatto è stato scrivere software. Ritengo che questa obiezione non sia valida: lo dimostra l’esempio di Wikipedia, forse più vicino dei due precedenti all’argomento di questo libro. Si tratta di un’enciclopedia accessibile dal web, il cui uso è gratuito. Invece di essere compilata da una redazione di esperti – che è il modo tradizionalmente accettato di scrivere un’enciclopedia – Wikipedia viene elaborata da una moltitudine di volontari, che utilizzano un software, chiamato appunto wiki (in hawaiano, “veloce”), per redigerne gli articoli a più mani. Questo sistema contiene due regole profondamente controintuitive.

La prima regola è che non ci sono filtri sugli autori. Chiunque, in qualsiasi momento, può registrarsi al sito, integrare o correggere gli articoli esistenti o scriverne di nuovi. Non c’è neppure bisogno di identificarsi, basta creare un qualunque nome utente.

La seconda regola è che non ci sono filtri sulle modifiche al contenuto. Una volta che un autore ha finito di scrivere e cliccato sul tasto “Salva la pagina”, ciò che ha scritto è immediatamente disponibile sul sito.

A prima vista può sembrare che queste regole diano troppa libertà agli autori di Wikipedia, trascurando invece di salvaguardare l’interesse dei lettori a disporre di informazioni certe e validate. Eppure, diversi studi hanno confrontato l’accuratezza e l’affidabilità di Wikipedia con quella di enciclopedie redatte nel modo tradizionale – dall’Encyclopædia Britannica a Encarta di Microsoft: tutti hanno riscontrato che gli articoli dell’una non sono, in media, meno accurati di quelli delle altre3 . Semmai, tendono ad essere più completi e aggiornati. Diversi ricercatori hanno provato a introdurre deliberatamente informazioni false negli articoli di Wikipedia, scoprendo che la maggior parte viene scoperta e corretta dagli autori in tempi piuttosto brevi, che variano da pochi minuti a qualche giorno4 .

Questo paradosso si spiega in parte con il fatto che Wikipedia è un cantiere sempre aperto: non sarà mai finita. È certo possibile – anzi, succede in continuazione – che i singoli autori commettano errori o anche atti di vandalismo; ma essi vengono scoperti e riparati da altri autori in modifiche successive. L’architettura informativa così aperta di Wikipedia la rende vulnerabile agli errori, ma ne aumenta anche la capacità di autoriparazione.

Nel paragrafo sopra ho scritto “in parte” perché sono consapevole del fatto che il regime autorizzativo aperto permette la correzione degli errori e la riparazione degli atti di vandalismo, ma non la causa e non la garantisce. La causa vera della capacità di autoriparazione di Wikipedia è che un numero sufficientemente grande di persone la ama abbastanza da impegnarsi personalmente per la sua integrità. Devo questa osservazione allo studioso americano Clay Shirky, che paragona Wikipedia al tempio shinto di Ise, in Giappone. Scrive Shirky nel 2008:

Wikipedia è un tempio shinto. Esiste non in quanto edificio, ma in quanto atto d’amore. Come il tempio di Ise, Wikipedia esiste perché c’è un numero sufficiente di persone che la amano, e, cosa più importante, si amano nel contesto che essa fornisce. Questo non significa che le persone che la costruiscono siano sempre d’accordo, ma amare qualcuno non preclude l’essere in disaccordo con lui (come la vostra stessa esperienza senza dubbio vi confermerà).5

Intelligenza collettiva vs. intelligenza individuale

Vi sono due ragioni per cui considero l’esempio di Wikipedia ancora più interessante di quello di Linux ai fini di questo libro. La prima è che scrivere un articolo di un’enciclopedia e progettare e realizzare una politica pubblica sono attività in qualche modo simili. Richiedono competenze tecniche, ma anche molta capacità di sintesi e di negoziato al fine di raggiungere una posizione comune6 . Viceversa l’attività di programmazione di un sistema operativo si svolge in gran parte in solitudine e richiede soprattutto l’immersione in una specifica cultura tecnica. La seconda ragione è che Wikipedia nasce da una costola di un’enciclopedia online redatta in modo tradizionale, chiamata Nupedia, di cui doveva essere un progetto complementare e con cui ha coesistito per un certo periodo. La sua traiettoria dei primi anni è quindi interessante per confrontare l’evoluzione di uno stesso prodotto – l’enciclopedia – sottoposto a due diversi modi di organizzarne la produzione.

Il confronto, in realtà, è di una semplicità quasi brutale. Nupedia nasce il 9 marzo 2000 come enciclopedia online gratuita. Il suo fondatore è Jimmy Wales, che assume Larry Sanger come direttore. A novembre solo due articoli sono stati completati e gli investitori cominciano a spazientirsi. Il 10 gennaio 2001 Sanger propone alla mailing list di Nupedia di creare uno spazio online aperto agli utenti, che serva a raccogliere e pre-organizzare materiale da passare poi alla redazione. Questo spazio sarà gestito attraverso un sito web che consente ai suoi visitatori di modificarne il contenuto e tiene traccia di tutte le modifiche che essi fanno. Il 15 gennaio Wikipedia va online, e nei mesi successivi Sanger e i suoi collaboratori stabiliscono le regole principali per i suoi articoli. Alla fine del 2001 ha circa 20.000 articoli e 18 edizioni in altrettante lingue. A fine 2002 le edizioni sono 26; a fine 2003, 46; a fine 2004, 161. Nupedia viene smantellata nel 2003. Il 9 settembre 2007 Wikipedia raggiunge i due milioni di voci, il che ne fa l’enciclopedia più vasta mai scritta. È evidente che l’approccio aperto di Wikipedia, che organizza una comunità intorno a un fine e a valori comuni ma la lascia libera di autocontrollarsi, funziona meglio di quello più codificato di Nupedia.

E funziona meglio perché c’è più gente, centinaia di migliaia di autori invece di una redazione, decine di milioni di ore-uomo invece di decine di migliaia. A inizio 2008 Shirky e Martin Wattenberg calcolavano che l’intera Wikipedia avesse assorbito circa cento milioni di ore di pensiero umano nei suoi primi otto anni di vita. Considerando una settimana lavorativa di 40 ore per 50 settimane all’anno, per generare questo monte ore sarebbe servita un’organizzazione di circa 6.250 dipendenti a tempo pieno. Un’organizzazione di queste dimensioni ha costi altissimi, non solo in personale ma in spazi per uffici, computer, connettività. Wikipedia, invece, è sostanzialmente gratis. Questo significa che, in circostanze favorevoli, gli uomini e le donne sono in grado di fornire grandi quantità di risorse intellettuali a progetti comuni mobilitando l’intelligenza collettiva7 .

C’è un aspetto di questa vicenda sul quale è importante che ci soffermiamo. In un certo senso, il motore dell’intelligenza collettiva non sta nella parola “intelligenza”, ma nella parola “collettiva”. La redazione di Nupedia era costituita da persone selezionate, le cui competenze le rendevano i candidati ideali per compilare un’enciclopedia, mentre gli autori di Wikipedia sono assolutamente autoselezionati; la qualità media dell’autore di Nupedia era presumibilmente molto più alta di quella dell’autore di Wikipedia. Nonostante questo, Wikipedia come prodotto funziona, mentre Nupedia no. La forza della prima è la pura e semplice forza del numero, che batte di gran lunga la forza della qualità media. Torvalds lo spiega con un motto noto come la Legge di Linus:

Se c’è abbastanza gente a guardare, tutti gli errori vengono corretti.

Cioè: l’unica variabile rilevante per ottenere risultati di questo tipo è il numero di partecipanti. Un numero sufficientemente alto garantisce un livello di attenzione alto; e questo mette al riparo da errori, omissioni, atti di vandalismo o sabotaggio. L’intelligenza collettiva non conosce crisi di attenzione, a differenza dell’intelligenza individuale dei decisori pubblici.

Ma come è possibile costruire politiche pubbliche con questo approccio, facendo diventare l’azione di governo una specie di Wikipedia? E, se ci riuscissimo, come si presenterebbero queste politiche wiki? Nelle prossime pagine proveremo a rispondere a queste domande, cominciando dalla seconda.

Partecipare con la rete

L’intelligenza collettiva può dispiegare il suo potenziale solo quando gli individui, che ne costituiscono i mattoni, possono disporre di un sistema efficiente e poco costoso per coordinarsi tra loro. In Wikipedia questo sistema è costituito da una piattaforma web, che serve contemporaneamente come tavolo di lavoro comune per gli autori dell’enciclopedia (il cosiddetto back end) e come pagina su cui i lettori consultano le voci compilate (il front end). I milioni di persone che consultano Wikipedia vedono sempre e solo il front end. Passare al back end è semplicissimo, basta cliccare sui tabs in alto, a sinistra del logo Wikipedia. “Discussione” permette di affacciarsi su una specie di riunione di redazione permanente, in cui le persone che collaborano a redigere quella particolare voce si scambiano opinioni sul come procedere. “Cronologia” riporta un elenco di modifiche successive: scegliendone due qualunque il sistema mette in evidenza le revisioni apportate per passare da una all’altra. “Modifica”, naturalmente, permette di modificare la pagina, e diventare quindi un autore di Wikipedia. E così via.

Possiamo certo immaginare modalità di collaborazione di massa non mediate da internet: le tecniche di progettazione partecipata che abbiamo incontrato al capitolo 1 sono un tentativo in questo senso. Ma la rete è associata a tutti i più importanti risultati prodotti dall’intelligenza collettiva e resta il candidato naturale a svolgere il ruolo di piattaforma. Infatti:

  • è ubiqua: vi si può accedere da quasi ovunque nel mondo. Questo permette il coordinamento tra persone fisicamente molto lontane.
  • è aperta: si basa su protocolli non proprietari, e questo ne ha favorito l’integrazione con le tecnologie più diverse. La conseguenza è che vi si può accedere attraverso i mezzi più svariati (personal computer, telefoni cellulari, dispositivi GPS ecc.), tutti i principali sistemi operativi e tantissimi tipi di software. Questo permette il coordinamento tra persone che hanno competenze e preferenze tecnologiche molto diverse.
  • è economica: anche a causa di questa architettura aperta, i costi di accesso a internet sono calati moltissimo negli ultimi dieci anni. Oggi l’accesso 24 ore su 24 è dato per scontato in gran parte dei paesi industrializzati. Questo allarga molto la platea dei potenziali collaboratori a progetti che usano il web come piattaforma di coordinamento.
  • è asincrona: siccome la rete è sostanzialmente un luogo dove si scrivono e si leggono informazioni, il modo naturale di collaborare è che A scrive oggi una cosa che B e C leggeranno poi. Questo rende il coordinamento in qualche modo atemporale: non c’è mai bisogno di darsi appuntamento, ciascuno può partecipare quando ne ha il tempo e la voglia, senza tenere conto dei tempi degli altri.

I partecipanti si autoselezionano

Applicare all’azione di governo i principi della collaborazione di tipo wiki significa trasformarla in profondità, proprio come è accaduto all’azione di scrivere un’enciclopedia. Una trasformazione tra le più profonde è che viene meno il bisogno di selezionare a priori gli stakeholders da includere in ciascun processo dato. Quando si apre un tavolo per prendere una decisione pubblica, basterà segnalarlo e consentirvi il libero accesso: ciascun soggetto sceglierà poi da sé se essere presente in quella particolare arena decisionale, e quanto del proprio tempo e della propria attenzione investirvi. Per esempio, io potrei decidere – da privato cittadino – che mi interessa discutere di cooperazione internazionale in Africa (per puro idealismo); di politiche di sviluppo regionale (me ne occupo per lavoro, e sono convinto di avere competenze utili); e dei tracciati delle piste ciclabili del comune in cui vivo (sono parte in causa, le uso per spostarmi in bicicletta). E potrei fare tutto questo senza bisogno di essere selezionato e al limite neppure invitato.

Questo sistema risolve uno dei dilemmi delle procedure decisionali inclusive, che abbiamo incontrato nel capitolo 1. Infatti non è più strettamente necessario che il decisore pubblico conosca a priori chi sono gli stakeholders di un dato processo, né tantomeno egli ha la responsabilità di decidere chi coinvolgere. Il suo problema diventa progettare un processo trasparente e razionale, e poi spalancarne le porte per chiunque voglia parteciparvi: saranno poi gli stakeholders stessi ad autoselezionarsi per partecipare a quel processo. Per tornare all’esempio visto al capitolo precedente, se i produttori di mozzarella di bufala di Benevento decidono che è vitale, per loro, che i problemi dei rifiuti di Napoli vengano risolti, essi si siederanno semplicemente al tavolo per dire la loro, senza bisogno di convocazioni o di permesso.

Quando si consente agli stakeholders di autoselezionarsi, in genere ci si ritrova con interlocutori del tutto inaspettati. Per esempio, a Venezia esiste una rete di cittadini chiamata 40xVenezia8, che si propone di favorire il ricambio generazionale della classe dirigente di quella città. I promotori dell’iniziativa hanno deciso di coordinarsi tramite un social network online, che è rapidamente cresciuto in numero e autorevolezza. Scorrendo la lista dei profili degli iscritti al network si trova una significativa minoranza di persone che provengono da tutto il mondo, dalla Grecia all’Uruguay. Alcuni hanno cognomi evidentemente veneziani, e sono probabilmente emigranti o discendenti di emigranti; altri sono persone che hanno lavorato, studiato o semplicemente viaggiato a Venezia, e che si sentono abbastanza coinvolti dai destini della città da mettere a disposizione un po’ del loro tempo e delle loro energie per contribuire a plasmarli. Una persona molto attiva nei 40xVenezia mi ha scritto:

I foresti di fatto e di nascita ogni tanto portano dei contributi notevoli, perché sono spesso giornalisti o registi e quindi ci danno visibilità.

Naturalmente queste persone si sono unite di loro iniziativa alla rete veneziana. Si verifica un paradosso: il buonsenso ci dice che non ha senso invitare a partecipare a una rete civica veneziana persone che non sono nate a Venezia, non ci vivono e non ci lavorano. Eppure il buonsenso è sbagliato: i “foresti” contribuiscono alla rete, e lo fanno in modo diverso dai veneziani. Essi aumentano non solo il numero, ma anche la diversità dei partecipanti, e allargano il ventaglio delle cose che la rete può fare. Per i decisori pubblici internet è una porta aperta, da cui possono entrare aiuti inattesi e imprevedibili ventate d’aria fresca.

Da ciascuno secondo i propri mezzi

Il bello del governo wiki è che ognuno può decidere di aprire quella porta ed entrarvi con una certa leggerezza. A differenza della partecipazione di tipo tradizionale, infatti, non richiede un grande investimento di tempo ed energie: la sua natura asincrona consente al partecipante di essere utile anche con una presenza molto sporadica. Anche un solo intervento, soprattutto se caratterizzato da conoscenze di livello alto, può essere molto utile (si pensi all’ingegnere navale che interviene sulla questione del moto ondoso generato dalle barche a Venezia).

A prima vista può sembrare assurdo che una persona che contribuisce in modo così casuale possa dare un aiuto sostanziale. Eppure il fenomeno è ormai non solo noto, ma anche studiato. Ci può essere di nuovo utile l’esempio di Wikipedia, dove le persone che fanno solo pochi cambiamenti – anche solo uno – hanno perfino un nome, “i buoni samaritani”. Essi non si registrano presso il sito di Wikipedia, ma scrivono i loro contributi in modo anonimo, e costituiscono i nove decimi degli autori dell’enciclopedia. Nel 2008 un gruppo di ricerca del Dartmouth College ha provato a misurare la quantità e la qualità del contributo dei buoni samaritani: le conclusioni, che hanno sorpreso gli stessi ricercatori, sono state che gli utenti registrati scrivono più contributi, ma i contributi dei buoni samaritani sono di qualità più alta9 .

La partecipazione mediata da internet, quindi, permette di risolvere il dilemma introdotto al capitolo 1. Non è più necessario scegliere tra processi brevi e molto partecipati, ma superficiali, e processi lunghi e meditati ma soggetti a emorragie di partecipanti. Grazie ai bassissimi costi di ingresso e alla partecipazione asincrona, le politiche wiki possono mobilitare moltissime persone e snodarsi su tempi relativamente lunghi. Il trucco è che non sono sempre le stesse persone a partecipare lungo l’arco del processo. I vecchi partecipanti possono uscire, e nuove persone possono prendere il loro posto, senza che il processo – alimentato anche dal contributo occasionale dei buoni samaritani – perda di coerenza.

Tolleranza zero per il politichese

Quando si partecipa a una decisione pubblica è praticamente inevitabile esporsi a una certa dose di retorica. Ciascun partecipante al processo desidera convincere gli altri della validità del proprio punto di vista; inoltre le persone coinvolte – è umano – tendono ad esagerare il loro ruolo, vedendo in ogni minima decisione una “politica innovativa” o addirittura un “cambio di paradigma”. A queste tendenze connaturate a qualunque processo di decisione pubblica se ne aggiungono altre, che dipendono dalla cultura in cui il processo stesso si svolge. In Italia è molto diffusa la convinzione che esprimere la propria posizione con un linguaggio molto tecnico ne accresca l’autorevolezza. Le decisioni pubbliche, però, trascendono per definizione i confini disciplinari, per cui non è in genere possibile utilizzare un linguaggio tecnico nello stesso senso in cui la notazione matematica fornisce un linguaggio tecnico alla fisica.

In mancanza di un linguaggio tecnico in senso stretto, la discussione in merito alle decisioni pubbliche si svolge spesso in politichese, discendente diretto del latinorum manzoniano: una lingua pseudotecnica, volta alla persuasione dell’ascoltatore e all’affermazione del rango di chi la usa. In Italia il politichese ha una lunga tradizione: un esempio molto citato fin dagli anni Settanta è la frase “convergenze parallele”, attribuita all’esponente della Democrazia Cristiana Aldo Moro. Due rette parallele, per definizione, non convergono, dunque le convergenze parallele sono concettualmente impossibili; ma, nell’ambiente culturale in cui si muoveva Moro, la frase suonava bene, dava l’impressione di pensiero strategico, di superiorità intellettuale. Dopo gli anni Settanta il politichese ha continuato ad essere largamente utilizzato nel dibattito politico-amministrativo10 .

Esprimersi in modo non chiaro è una strategia perdente nei processi di tipo wiki. Intanto è costoso: in genere le interazioni sono scritte, e scrivere, si sa, è per molti più faticoso che parlare. Questo, di per sé, introduce una tendenza alla sintesi, e quindi alla comprensibilità. Ma soprattutto è pericoloso, perché si rischia di essere ignorati o attaccati frontalmente da persone molto competenti, o molto pignole, o entrambe le cose. Il fascino del leader famoso che parla a una piazza usando un microfono è qui inutile: la mediazione del web riduce molto i problemi di timidezza, e la permanenza delle cose scritte ne consente un’analisi approfondita – e quindi espone in modo impietoso l’eventuale “fuffa”.

Ecco uno scambio apparso nel luglio 2009 su un forum che frequento spesso. Scrive uno dei partecipanti, A:

[…] è un interessante incubatore, ad un livello medio-alto, di visioni che potrebbe sperimentare, delegando soggetti appartenenti ad una precisa area geografica […], di rappresentare (in fieri, in itinere, in sostanza) un modello di gestione innovativa di un territorio=gruppo locale+network online. Il gruppo locale (rappresentato da soggetti portatori di asset motivazionali orientati e condivisi) può diventare così l’avatar reale di un network online (come ***, in cui prevalgono competenze e orientamenti concettuali) che può strutturare con questi soggetti un metaprogetto politico all’interno di un sito esclusivo, ma condivisibile, come Second Life.

Gli risponde B, nemmeno due ore dopo:

ti dico molto sinceramente che non riesco a seguire bene il tuo discorso, quindi mi permetto di porti qualche domanda per fare chiarezza. […]

Dopo essere stato sottoposto a domande da parte di B e di altri, A tenta una replica, senza cambiare registro linguistico:

[…] Un soggetto politico, oggi, propone programmi e volontà. Un soggetto politico “altro” dovrebbe proporre buone pratiche e competenze. Ora, le buone pratiche si fanno in pratica e dunque “si devono fare”; le competenze si hanno e si mettono in rete. Ci sono competenze, però, che sul territorio non si possono o non si riescono a trovare, per una serie di fattori che comprendi da solo, ed è a quel punto che dovrebbe intervenire un sistema allargato di conoscenze per intessere relazioni di competenza con singoli soggetti, o gruppi, disposti a crescere di questo know-how a distanza. La strada e il centro culturale sono prodotti di una esigenza di sistema.

Un terzo utente, C, insiste per una chiarificazione:

[…] Però insisto: alla fine tu devi dire cosa produci per il territorio. [Per esempio]: ti risolvo i problemi di mobilità. [Oppure]: ti convinco i giovani a studiare matematica. Entrambi sono fattori di competitività territoriale. Il metodo in sé, secondo me, non si vende: quello che si vende sono i risultati.

A questo punto interviene un quarto, D, che tenta una sintesi.

[…] sarebbe diverso se in un centro crei un luogo di aggregazione […] dove potersi abitualmente riunire per […] trovare, attraverso l’organizzazione di specifici incontri, soluzioni a problemi di quel centro, incontrandosi ad esempio, grazie a Skype o a Second Life, con l’esperto di turno che sta in remoto e con cui imbastire un confronto collettivo teso alla soluzione di quel problema.

Banalmente, qui a *** molta gente si lamenta dello stato di degrado della parte monumentale del cimitero e un esperto della soprintendenza alle belle arti che lavora a Bologna si è offerto per dare delle indicazioni. Il problema è convincere gli interlocutori appropriati (funzionari dell’ufficio tecnico comunale, assessori, ecc.) a partecipare all’incontro.

Siamo passati da “l’avatar reale di un network online” che struttura “un metaprogetto politico” a un parere tecnico sul come risolvere il degrado in cui versa il cimitero monumentale di una piccola città, dato attraverso un incontro online con la popolazione. È un cambiamento di registro significativo!
La cosa che sta succedendo qui è che B, C e D rifiutano il politichese. Essi desiderano partecipare alla discussione proposta da A, ma solo se essa si svolge secondo modalità che essi capiscono e rispettano. Il loro coinvolgimento sposta inesorabilmente il linguaggio con cui si discute verso la chiarezza, e il contenuto discusso verso le proposte concrete11 . Se vuole tenere il pallino della discussione, A sarà costretto ad accettare questo terreno. I media sociali, nella mia esperienza, tendono quasi sempre a sfrondare il politichese e ad andare al punto. La concretezza genera quasi sempre consenso ed energizza la discussione, mentre l’ambiguità genera isolamento e abbandono.

Ma perché il politichese non viene sfrondato anche dai processi di decisione pubblica tradizionali? Perché in essi i partecipanti alla discussione vengono filtrati prima di cominciare (per esempio, si convoca un tavolo sulla pedonalizzazione del centro storico e si invita l’associazione dei commercianti). Qualunque cosa dicano i soggetti che hanno passato la fase di filtraggio, essa è per definizione degna di uno spazio, anche se sbagliata, anche se stupida, anche se detta (o scritta) in politichese. In una discussione realmente aperta, invece, tutti hanno diritto di parola; è, per definizione, un mondo in cui le cose prima vengono dette, e solo dopo vengono filtrate, per distinguere quelle più rilevanti dalle altre. Quindi, chiunque prenda la parola in una discussione aperta deve competere con gli altri per l’attenzione generale, che non gli è affatto dovuta. In questa situazione, la strategia più efficace per influenzare la discussione è di tenere vivo l’interesse dei partecipanti, cercando di non perdere il loro tempo e la loro attenzione. Forse anche per questo, man mano che sempre più persone usano i media sociali, vengono apprezzate le forme brevi: l’abstract e non il saggio, le slides e non il testo della presentazione, il video di tre minuti di riassunto e non la versione integrale.

I cervelli in parallelo

Quando a un processo partecipano molte persone, la sua capacità di elaborare informazione aumenta molto. Ognuno dei partecipanti ha interessi e competenze che diventano immediatamente accessibili all’intelligenza collettiva. Il fatto che il processo si appoggi a una piattaforma internet facilita molto la condivisione di informazione: il più delle volte basta postare un link. Per esempio, un accenno abbastanza generale alla possibilità di reclamare crediti di efficienza energetica per un’iniziativa di mobilità sostenibile può incontrare l’esperienza di un partecipante che conosce bene quel campo, e svilupparsi in una discussione molto tecnica su come e da chi questi crediti possano essere reclamati. La cosa interessante è che, nelle politiche wiki, queste diramazioni del dibattito principale non richiedono la partecipazione di tutti: possono essere discusse semplicemente tra le persone che a quell’argomento specifico si interessano. Le loro conclusioni possono poi venire reimmesse nel dibattito e usate come premesse di discussioni successive. Queste vengono in genere accettate anche da chi alla diramazione non ha partecipato; la forma scritta della discussione e la sua accessibilità permanente fanno sì che chiunque lo voglia possa rileggerla ed eventualmente contestarla. Ciò, naturalmente, genera fiducia: fintanto che nessuno la contesta, una conclusione viene accettata come vera.

Questo meccanismo consente a persone diverse, con interessi e competenze diverse, di esplorare più o meno simultaneamente aspetti diversi di uno stesso problema, e non richiede a tutti di discutere su tutto. I cervelli diventano lampadine che lavorano in parallelo e non in serie. In questo modo si invalida il vecchio detto che vuole che la velocità del gruppo sia uguale alla velocità del suo componente più lento. La velocità di elaborazione dell’intelligenza collettiva è qualcosa di simile alla somma delle velocità dei suoi componenti più veloci, e quindi cresce con il numero dei partecipanti al processo. Conclusione: i processi decisionali aperti, se riescono a sollecitare una partecipazione abbastanza ampia, possono esplorare in profondità un gran numero di alternative.

Il consenso emerge

Chi si avvicina a questi processi per la prima volta non può fare a meno di chiedersi come possano reggere all’attacco di persone malevole, ostili verso il processo o semplicemente stupide. L’apertura totale su cui il meccanismo si basa implica che non sia possibile tenerle fuori; si può censurarle, ma si rischia di incrinare la credibilità del processo stesso. Se le persone sentono di lavorare a un processo “truccato”, che sembra aperto ma è il cui esito, in realtà, è stato deciso a priori, si sentiranno sfruttate e lo abbandoneranno. A nessuno piace farsi strumentalizzare.

Il problema esiste. Ha generato perfino un proprio gergo. Le persone che cercano il litigio vengono chiamate “trolls”; gli scambi maleducati “flames”; le controversie soggette a flames sostanzialmente irrisolvibili (per esempio gli scambi a volte francamente ostili tra fans dei Pc e amanti dei Mac) “guerre di religione” e così via. Nonostante questo, l’esperienza insegna che in genere i trolls finiscono per essere isolati dagli altri partecipanti e, ignorati da tutti, finiscono per abbandonare le discussioni; che spesso emerge il ruolo di persone a cui viene riconosciuto un ruolo di mediatore; e soprattutto che, nel caso si verifichi uno scontro frontale tra due persone che sostengono posizioni opposte, il resto dei partecipanti è perfettamente in grado di distinguere tra argomenti solidi e argomenti pretestuosi. A meno di divergenze ideologiche (in genere disinnescate dall’esplorazione in profondità del problema sul tappeto), un consenso tende ad emergere in modo abbastanza evidente.

Molti partecipanti, molta legittimazione

I processi realmente aperti hanno il vantaggio di essere molto robusti. Tanto per cominciare, i gruppi e gli individui insoddisfatti delle decisioni prese non possono rimetterle in discussione lamentando di esserne stati esclusi: i processi aperti, per definizione, non escludono nessuno. Inoltre, risolvono il problema della rappresentanza: se i commercianti di via Garibaldi del capitolo 1 non si sentono rappresentati dall’associazione dei commercianti non devono fare altro che partecipare direttamente al processo e portarvi la loro voce. Infine, il fatto che il decisore pubblico abbia davanti una platea abbastanza ampia di interlocutori impedisce a singoli soggetti o gruppi di bloccare il processo abbandonando il tavolo; abbandonare il tavolo è certo possibile e legittimo, ma non blocca la decisione. Essa verrà comunque presa da chi continua a parteciparvi.

A questo punto siamo in grado di descrivere per sommi capi le politiche wiki, ovvero le decisioni pubbliche come sarebbero se somigliassero alla compilazione di Wikipedia.

  • Verrebbero intermediate da una piattaforma internet
  • Permetterebbero ai partecipanti di autoselezionarsi
  • Accetterebbero e valorizzerebbero piccoli contributi e partecipazione sporadica
  • Avrebbero un grado di tolleranza basso verso il politichese e il linguaggio fumoso
  • Sarebbero in grado di elaborare molta informazione e di arrivare a un consenso
  • Produrrebbero decisioni fortemente legittimate contro contestazioni successive.

Il vantaggio principale delle politiche wiki, però, resta quello visto all’inizio di questo capitolo: risolvono o attenuano la crisi di attenzione. Se attraverso la rete si riesce ad attirare un numero elevato di partecipanti, la decisione ne beneficerà a tutti i livelli. Ci saranno molti contributi, e una parte di questi sarà di qualità alta; dunque, la decisione sarà di livello tendenzialmente migliore. Ci saranno molti soggetti coinvolti, che si riconoscono nel processo; dunque, la decisione sarà più condivisa. Dall’incontro con il mondo wiki, le politiche pubbliche possono trarre grande forza.

Continua a leggere oppure Torna al piano del libro

Note

1 La storia è raccontata da Clay Shirky [2008].

2 Tapscott e Williams [2008].

3 Il più famoso è un articolo del 2005 di Nature [Jim Giles (December 2005). “Internet encyclopedias go head to head”. Nature 438]. Su Internet si trova a http://www.nature.com/nature/journal/v438/n7070/full/438900a.html

4 http://en.wikipedia.org/wiki/Reliability_of_Wikipedia#Academia

5 Shirky [2008]. Traduzione mia

6 Per avere un’idea del dibattito che sta dietro alla redazione degli articoli di Wikipedia basta scegliere un articolo qualsiasi e cliccare sul tab “discussione” nella parte alta della pagina.

7 Nello stesso articolo in cui presenta i suoi calcoli Shirky smonta l’obiezione che vorrebbe questo modello non generalizzabile per mancanza di tempo. Il tempo per lavorare a Wikipedia verrebbe dal guardare meno televisione: si calcola che solo negli USA il tempo complessivamente trascorso davanti alla televisione si aggiri sui 200 miliardi di ore all’anno. Se gli americani smettessero improvvisamente di guardare la televisione e riversassero il tempo così risparmiato su progetti “tipo Wikipedia”, potrebbero completarne 2.000 all’anno. http://www.shirky.com/herecomeseverybody/2008/04/looking-for-the-mouse.html (maggio 2010)

8 http://40xvenezia.ning.com

9 http://www.scientificamerican.com/article.cfm?id=good-samaritans-are-on-the-money

10 Nel 2009 è stata messa sul mercato un’applicazione per iPhone dal titolo, appunto, “Politichese”, che viene reclamizzata come “Il generatore di testo per dire qualsiasi cosa su qualsiasi cosa, senza mai dire niente”. È in vendita per €1,79. http://itunes.apple.com/us/app/politichese-per-tutti/id311930194?mt=8

11 Cercando su Wikipedia i programmi europei o le parole chiave ad essi collegate, ci si trova spesso di fronte a segnalazioni di problemi (per esempio “Questo articolo può contenere affermazioni non verificabili”). Molti documenti ufficiali sono scritti in un linguaggio poco chiaro e contengono affermazioni non documentate, per cui non passano il “test di Wikipedia”. Devo questa osservazione a David Osimo. http://egov20.wordpress.com/2008/10/28/using-wikipedia-entries-to-evaluate-research-policies/, (maggio 2010)

37 pensieri su “2. Accedere all’intelligenza collettiva

  1. rosaria toro

    Capitolo entusiasmante!
    Io, che sono sempre polemica, avrei aggiunto qualche parola alla fine cui verrebbe destinata la classe politica attuale dei dinosauri dall’attuazione di una politica wiki in Italia sia in larga scala che in piccola scala….ma io non sono brava, faccio sempre polemiche a vuoto, molto meglio e piu produttivo non confrontarsi con certi scenari tristi!!!

    Replica
  2. Enrico Alletto

    L’intelligenza collettiva, quindi, esiste, e sa operare concretamente. Si potrebbe obiettare che essa riguarda essenzialmente la produzione di software

    Io obbietto su un’altro punto (tieni presente che sto leggendo il libro nei ritagli di tempo e saltando da un capito all’altro) e cioe’ il digita divide culturale (che comunque tratti piu avanti)

    Quando fai l’esempio di Linux quello che credo non emerga e’ il fatto che quelle persone che contattano Torvalds sono gia predisposte non solo alla condivisione del sapere, ma anche all’uso degli strumenti, non solo dal punto di vista tecnico, per rendere efficace la loro interazione. Quelle persone sono consapevoli del fatto che “facendo cosi” si puo’ arrivare ad un risultato positivo

    Quando parliamo di wikicrazia, secondo me, non esistono solo due macro-fattori: 1) il “pubblico” che adotta lo strumento 2) Le persone che lo usano e danno il loro contributo

    Esiste anche un punto 3) Le persone che avrebbero cose da dire sui temi trattati ma non sanno bene come fare

    Non parlo sono di uso tecnico di mail e di forum o di “banda stretta”, ma anche di un blocco culturale da cui alcuni proprio non vogliono rinunciare (e quelli non irrecuperabili :-)), ma poi ci sono alcune persone che “vorrebbero provarci”, ma l’ambiente circostante non le aiuta, non le supporta, non le incoraggia …

    Replica
  3. Alberto Autore articolo

    @ Rosaria, grazie dei complimenti. Effettivamente Wikicrazia non vuole essere un libro polemico. Altri sanno fare polemiche molto meglio di me! Wikicrazia vuole essere un libro per aiutare a capire alcune cose.

    @Enrico il tuo punto tre non mi è chiaro. Gli strumenti di partecipazione ci sono (non solo quelli su Internet), quindi in teoria se qualcuno ha qualcosa da dire lo può fare sempre o quasi. Forse vuoi dire che ci sono persone brave che, se venissero un po’ incoraggiate e introdotte alla discussione, acquisirebbero gli strumenti culturali per discutere: impararebbero ad ascoltare, a mettersi in discussione, ad argomentare in favore delle proprie convinzioni. Se è così hai indubbiamente ragione, ma questi sono strumenti culturali di base, diffondere i quali è compito della scuola e dell’università. Sbaglio?

    Replica
  4. Enrico Alletto

    Si e’ cosi !

    Se è così hai indubbiamente ragione, ma questi sono strumenti culturali di base, diffondere i quali è compito della scuola e dell’università. Sbaglio?
    Non sbagli. Ma non lo fanno. Inoltre ci sono molti 45/55 enni, target a cui mi riferivo prima, che di cose interessanti da dire ne avrebbero, ma … e ricadiamo nell’osservazione di prima

    nota tecnica: ho selezionato “Informami via email sullo stato dei commenti” ma non mi arrivano le notifiche

    Replica
  5. lg

    alberto, ti lascio un commento veloce, impressioni volanti dopo aver “sfogliato” questo pezzo, aperto quasi a caso come se fosse già sullo scaffale della libreria 🙂

    cose molto eteronegee eh ma insomma

    1 su “intelligenza collettiva” direi di riprendere almeno il saggio omonimo molto noto di pierre levy uscito anche in italiano a suo tempo (feltrinelli interzone). levy se non ricordo male torna indietro sino ad aristotele (ma sul serio, non come faccio io quando scherzo sui padri della chiesa 😉

    2 ho qualche perplessità su linux come frutto di una “tribù globale”, in contrapposizione a quanto fanno o farebbero le grandi aziende… UNIX è uscito dai Bell Labs; piuttosto come scrivi tu stesso è l’apertura della collaborazione su cui si deve ragionare; nel software funziona (il che non esclude che funzionino bene altri modelli); forse qui è il caso di citare per es. Stallman. Da qui a generalizzare ce ne passa. Mi pare che 2-3 anni fa un finlandese di cui ora non ricordo il nome a provato ad affrontare la cosa con un saggio (cerca qualcosa come “Philosophy of open source”, Amazion o mio delicious)

    3 Wikipedia è un’impresa straordinaria ma trasformarla in un universale – un modello, in termini meno teoretici – è una mossa ben aggressiva e da argomentare assai… non sarà il caso di vederne anche gli aspetti disfunzionali? Non tanto le inesattezze della biografia di Eco 😉 però… una cosa però è scrivere in tempo reale tutto quello che si può sapere su Lost un altro è redigere una voce su Leibniz… siamo sicuri che sulle monadi non abbiano ancora da dire? e poi la cosa che a me piacerebbe vedere discussa è semmai il combinato di apertura e organizzazione formale, il ruolo delle redazioni, le deformazioni organizzate etc.

    2 cents! scusa l’improntitudine, proverò a riaprire 🙂

    Replica
    1. Alberto Autore articolo

      Luca, grazie del commento. Sui punti:

      1. cercherò il saggio di Levy. Però tieni conto che questo capitolo è quello su cui meno ho da dire: altri meglio di me (Shirky, Tapscott) hanno trattato il tema della collaborazione di massa. Immagino che un lettore geek come te di Wikicrazia questo capitolo lo salti proprio, passando dall’enunciazione del problema (capitolo 1) alle possibili soluzioni (capitoli dal 3 in poi). Probabilmente dovrei proprio scriverlo nel testo.

      2. la frase a cui fai riferimento è presa dal libro di Shirky. Forse è un po’ a effetto…

      3. stesso discorso: non sta a me fare una critica meditata di questo concetto della collaborazione di massa. La cosa che mi interessa è piuttosto: se la accettiamo come valida, come possiamo usarla per migliorare le politiche pubbliche?

      Replica
      1. lg

        in realtà *non* lo salterei, al contrario. il punto non è tanto essere d’accordo o meno e nemmeno apprendere dal testo che wikipedia vive in generale di meccanismi collaborativi, linux pure, o che esiste un modello chiamato “crowdsourcing” etc. (capisco che non vuoi annoiare il lettore più o meno informato etc.) — il fatto è sec. me che a questo livello di astrazione (di nuovo, intesa come generalità) l’ipotesi potrebbe ridursi ad affermare che nel mondo si sperimentano collaborazioni efficaci, efficienti, soddisfacenti in termini morali o estetici o sociali — insomma una argomentazione sulla virtù della partecipazione come tale; bene eh, c’è sicuramente un mare di letteratura in ogni dove… a me per esperienza vengono i mente gli amici nordici del design partecipativo etc. Ma io dico un’altra cosa. A me invece interesserebbe proprio capire in che modo le specifiche forme di collaborazione, autorità, leadership, governance che per es. informano Wikipedia — tutt’altro che semplici mi pare, e pure per questo meritevoli di analisi — possono essere applicate o rimodellate in iniziative collegate alle politiche pubbliche, ai diversi livelli (Wikipedia poi come realtà globale e locale forse può dare spunti anche su questo). insomma, appena riesco guardo più avanti nel testo 🙂 per capire qualcosa spero 😉 del tuo procedimento ma riepilogando ti direi che se l’ipotesi ha un ruolo nella tua argomentazione, allora un certo livello di analisi dell’ipotesi, buona o meno che sia, io me lo attenderei

        Replica
        1. Alberto Autore articolo

          Capito. Per me non era tanto un non volere annoiare il lettore, quanto un atteggiamento se vuoi da accademico: caro lettore, assumiamo che la collaborazione in rete esista e funzioni. Se vuoi discutere questa assunzione, leggiti Shirky e discuti con lui. Allo stesso modo, se fai un normale paper di economia industriale non è che stai a dimostrare di nuovo le condizioni di equilibrio di un mercato di concorrenza perfetta, le dai per scontate e poi sai che c’è un livello di critica profonda della disciplina, che si fa sui testi sacri, e di cui il tuo piccolo lavoro non fa parte.

          Hai ragione in pieno sul fatto che la cosa più interessante è in che modo le specifiche caratteristiche della collaborazione in rete (come le vediamo non solo in Wikipedia, ma in altri esempi) possano essere applicate alle politiche pubbliche. E infatti i capitoli successivi sono principi per l’how-to: community, trasparenza, rispetto, voce umana, merito… Però è chiaro che il capitolo 2 non deve generare una reazione del tipo “bah, questo Cottica è un superficiale, il resto del libro non vale la pena di leggerlo”.

          Replica
          1. lgalli

            Ok IMHO con quest’ultima replica (editata etc.) hai già scritto una sorta di disclaimer che senza portarti fuori strada (corretto, ti seguo) evita anche di ingenerare in alcuni lettori l’idea che certe premesse non siano suscettibili di esame critico; lo aggiungerei da qualche parte, dove funziona. Poi come ti dicevo, sempre con sforzo misurato, allungherei un po’ il tiro oltre i nomi celebri del 2.0, con una tipica noticina o altro rimando che rimandi a studiosi con impianti teorici magari più tradizionali (ti ho detto al volo Levy, ma un altro potrebbe suggerire un rif a Castells etc)– Shirky e Tapscott sono brillantissimi fuori di dubbio ma rappresentano un po’ quel business writing che non ha proprio l’indagine e la discussione come finalità prima 😉 (inpart Tapscott direi)

  6. lg

    scusa aggiunta… sennò non si capisce: l’es di Leibniz si riferisce al valore dei modelli tradizionali; ma immagino che nella letteratura scientifica su Wikipedia (dove sta?) ci sia qualcosa… btw, i miei esempi non sono valutativi, al contrario: la cultura cosidetta “pop” per certi versi è stata vendicata da Wikipedia, oggi più conosciuta e magari autorevole della Britannica etc., laddove le enciclopedie tradizionali chiaramente erano una summa dei saperi alti, anche laddove guardavano verso il basso etc.

    Replica
  7. lg

    ultimo commento: siccome non siamo su Wikipedia né io né altri potremo cancellare il mio fantastico “a provato”… la Rete non dimenticherà questa bestialità, argh! La prossima volta scriverò p i a n o 🙂

    Replica
  8. Tito

    “I partecipanti si autoselezionano”: è vero, però non è detto che quelli che decidono di non partecipare, o perchè sono digitally impaired o perchè non gli va, non siano anche quelli che hanno potere di veto successivamente, nella fase attuativa. Intendiamoci, credo che la partecipazione ci voglia e rafforzi la decisione da vari punti di vista, come dici, ma per me dai troppo per sicuro l’esito finale, se hai attivato una partecipazione web.

    Grandi i passaggi sul linguaggio non tecnico. Ti amavo prima di conscerti.
    (Però) mi viene il dubbio che l’incentivo o la pressione verso la chiarezza e semplificazione si inneschisolo se ti rivolgi ad un pubblico generalista. Mi domando se non ci sarebbe altro da ragionare su questo interessantissimo punto. Purtroppo non conosco la letteratura.

    Il punto che per me non hai portato a casa, o meglio su cui non hai convinto me, fra i vari che esponi è quello che la partecipazione web produce il consenso, ossia naturalmente converge verso una posizione di sintesi (4o pallozzo della penultima pagina). se così fosse sarebbe una grande cosa. Per me la sintesi della decisione consensuale a partire dal dibattito che la partecipazione ha attivato rimane il problema aperto e come tale lo lascerei. Oltretutto dire che tutte le cose buone vanno insieme naturalmente per me non rende il libro più interessante. Per me la tesi per cui la partecipazione web migliora la qualità della decisione ed il consenso che la accompagnerà durante l’attuazione, è già molto ed è abbondantemente sufficiente a giustificare l’adozione di queste pratiche.

    Replica
    1. Alberto Autore articolo

      Tito, i tuoi commenti mi mettono sempre in difficoltà, e di questo ti sarò sempre grato. 😆

      Però tieni conto che a dare per scontato che la decisione inclusiva sia un pezzo fondamentale delle politiche pubbliche non sono io ma Bobbio, e con lui molti altri (lo stesso DPS, spingendo l’idea della programmazione negoziata, sembra riconoscersi in questo principio). L’esito finale non è mai sicuro, immagino, ma perlomeno lo strumento per la partecipazione è meno arbitrario e ingessato di quelli che Bobbio aveva in testa nel 1996; nei casi favorevoli può raccogliere e rendere visibile una certa energia sociale, che poi rinforza le decisioni prese nei confronti di chi tenta di porre loro il veto. Forse dovrei scriverlo.

      Sul linguaggio tecnico: non mi risulta che ci sia letteratura, è tutto ancora troppo nuovo. La mia ipotesi spannometrica: il linguaggio converge alla semplicità e concretezza, qualunque cosa questo voglia dire per la community in questione. Immagino che la discussione su Peer-to-Patent delle microélites che si occupano di computer quantici non sia poi tanto semplice per uno come me, ma che risulti chiaro per loro.

      Quanto alla convergenza sul consenso, io la vedo succedere ogni giorno. Probabilmente avrei dovuto specificare che non sono le persone a convergere, ma le conversazioni: cioè nessuno che sia veramente convinto di una cosa cambia idea, ma chi si avvicina al processo in modo abbastanza laico vede emergere una posizione nettamente più convincente delle altre. In genere succede che a un certo punto qualcuno propone una cosa e tutti si mettono a discutere della proposta, ignorando completamente le posizioni precedenti (e magari contrapposte). Il messaggio è chiaro: quelle posizioni, semplicemente, non hanno trazione, e quindi non hanno legittimità. Certo, chi le sostiene può continuare a spingerle, ma otterrà solo di irritare gli altri: ha già detto la sua, la discussione è andata avanti, cosa vuole ancora? Nella misura in cui – di nuovo – una decisione è tanto più legittimata quanto più è partecipata, il dissidente si trova perdente in una discussione fortemente legittimata.

      Replica
    2. Alberto Autore articolo

      Tito (e Tommy), oggi ho trovato un mio scritto di due anni fa, una relazione su Visioni Urbane, che contiene un esempio carino sulla convergenza del dibattito. La riporto, ne vale la pena. Quello che intendo dire è esattamente questa cosa qui.

      [In una situazione in cui la comunicazione è di tipo molti-a-molti, come in un forum] risulta molto più semplice attingere alla conoscenza del territorio e dei mercati culturali incorporata nei creativi: l’uso dell’informazione in funzione strategica si riduce quasi a zero. Nelle prime fasi di VU alcuni creativi hanno provato a tracciare una linea di demarcazione tra “i professionisti” (persone che fanno arte e cultura per mestiere, tra cui i proponenti di questa distinzione annoverano se stessi), e “i dilettanti” (persone che fanno anche altro oltre a dedicarsi ad attività creative). Il senso della distinzione è che i primi sarebbero i veri interlocutori di VU; facendo proposte di livello più alto, essi meritano una quota più consistente di risorse pubbliche. Privo di una competenza forte sulle arti, il gruppo di lavoro poteva solo accettare con riserva una simile affermazione quando essa è emersa in un contesto hub and spokes (fase di intervista, estate 2007): quando, però, questa è stata riproposta in riunione plenaria, essa è stata immediatamente disinnescata dalla discussione collettiva. E’ emerso, infatti, che in un contesto debole come la Basilicata è lo status di professionista della cultura ad essere il risultato dell’assegnazione di risorse pubbliche, e non viceversa. E’ emerso inoltre che la qualità della proposta non sia affatto il principale criterio di assegnazione di risorse pubbliche per la cultura. Dunque, non è sostenibile che “i professionisti” facciano proposte di livello più alto. Dopo la seconda riunione plenaria, la rivendicazione dei “professionisti” è semplicemente sparita dall’agenda della community, sostituita da un confronto sul merito delle singole proposte. La community, quindi, sorveglia se stessa sotto questo aspetto, riducendo molto il problema di asimmetria informativa che affligge la pubblica amministrazione nei confronti degli amministrati.

      Replica
  9. tommaso

    Intelligenza individuale vs intelligenza collettiva: sono categorie centrali nel tuo discorso, ma è una distinzione/opposizione che fa un sacco d’acqua, a dispetto della maggior parte della riflessione sociale attuale (oggettivista) che ipotizza un dominio psichico empiricamente distinto e separabile dal dominio sociale (ma quando mai?; vedi Norbert Elias, ad esempio “Coinvolgimento e Distacco”).
    Negli esempi che porti, in realtà, il confronto è tra un’intelligenzina collettiva (pochi) e un’intelligenzona collettiva (molti) per cui, ciò di cui parli, non è una differenza qualitativa (tra due presunte differenti intelligenze – differenza come ti dicevo a mio avviso infondata) ma quantitativa: differenti capacità di coordinamento, nella forma di meta-programmi di produzione.

    Sulla convergenza sul consenso, la riflessione sociale ne discute sotto la categoria “influenza sociale”; suggerisco, sopra tutti, Serge Moscovici, per la brillante stipulazione dell’influenza della minoranza come distinta dall’influenza della maggioranza. Per inciso, nella psicologia sociale, la convergenza è normalmente ritenuta assai rischiosa (groupthink), perchè va a scapito della valorizzazione dell’eterogeneità cognitiva, e quindi dell’analisi, e quindi della qualità della decisione.
    Forse allora si potrebbe dire che la rete, in quanto potentissimo strumento di coordinamento, è capace di incorporare un’eterogeneità enormemente superiore ai contesti di interazione fisica; ma ciò non garantisce comunque che le dinamiche dell’influenza ne pregiudichino le potenzialità in termini di qualità della decisione.

    Replica
    1. Alberto Autore articolo

      Beh, no. Ricordi Phil Anderson? More is different: o “quando scali di tre ordini di grandezza, normalmente ti serve un’altra scienza”. Le dinamiche di gruppo tra tremila persone non sono le stesse che intercorrono tra tre, solo amplificate. Sono proprio un’altra cosa. Le transizioni di fase (da acqua a ghiaccio) non avvengono alle singole molecole, e neanche a dieci molecole, ma solo a un gran numero di molecole di H2O. Questa, francamente, mi sembra un’obiezione che il movimento complexity ha seppellito per sempre. 😉

      Anche sulla convergenza, ‘sta roba del groupthink non coincide minimamente con la mia esperienza di Internet (e oso dire non solo con la mia). Vedi sopra la risposta a Tito: a convergere non sono le persone, ma l’interazione.

      Replica
  10. giulio quaggiotto

    Ciao Alberto,

    come altri, tralascio i complimenti e vado al sodo 🙂 A mio avviso, questo capitolo potrebbe beneficiare di qualche ulteriore approfondimento sulle meccaniche dell’intelligenza collettiva (mi rendo conto che ne parli in parte nel capitolo successivo). Penso in particolare a Surowiecki e the Wisdom of the Crowds http://en.wikipedia.org/wiki/The_Wisdom_of_Crowds. Le 4 condizioni che lui descrive perche’ l’intelligenza collettiva funzioni (diversita’, indipendenza, aggregazione, decentralizzazione) – e non sia semplicemente una accozzaglia di idee – meriterebbero una menzione (anche se magari per criticarle). Il punto sulla independenza, per esempio, puo’ provocare spunti interessanti in quanto alla manipolazione delle politiche wiki. E una riflessione sulla decentralizzazione offirebbe uno spunto su un aspetto che, almeno dalle mie parti, va un sacco di moda – l’iperlocalizzazione delle politiche, che credo meriterebbe una menzione nel libro (qui o altrove)? Se una condizione della politiche wiki e’ l’autoselezione e la possibilita’ che i participanti abbiano sviluppato local knowledge, allora le politiche wiki a livello locale hanno teoricamente piu’ probabilita’ di successo in termini di partecipazione?

    Un’altra osservazione, di sicuro condizionata da dove mi trovo! Magari e’ un punto dato per scontato, ma forse varrebbe la pena di menzionare il fatto che stai parlando di politiche wiki soprattutto nei paesi sviluppati? Se invece il discorso e’ piu’ ampio, allora questioni tipo il digital divide (che tratti piu’ tardi), ma anche questioni legate alla sicurezza personale in paesi dove c’e’ persecuzione politica e questioni di disparita’ di rapporti di potere diventano molto piu’ importanti.

    Un ultimo punto. Parli di piattaforme internet – immagino tu abbia in mente anche telefonia mobile? (forse varrebbe la pena specificare?)

    I miei due cents, come si dice da ste bande…

    Replica
    1. Alberto Autore articolo

      Ottimi punti, Giulio! Quindi, qui si è capito che sono ancora un po’ ignorantello e devo studiare di più. Durante la riscrittura mi leggerò un po’ della bibliografia suggerita.

      L’iperlocalizzazione delle politiche non so che cosa sia. In generale io sono scettico sulla posizione che dice “il livello locale (delle politiche) è quello che ha le informazioni per fare”. Qui sono influenzato dalla narrativa del DPS sulla programmazione negoziata: quella fase si è appoggiata molto al livello locale, con strumenti di assoluta avanguardia, ma i risultati sono deludenti e a macchia di leopardo. Perché? Perché nel mezzogiorno vi sono, purtroppo, alcune comunità dominate da élites molto coese… ma stupide, conservatrici o malvagie, che esprimono un accordo, sulla sua base prendono i soldi, e non generano sviluppo ma rendita. Non credo sia un problema italiano: quando a Bilbao hanno fatto il Guggenheim, mi hanno raccontato, tutti erano contrari. Il Guggenheim è stato imposto dall’alto – ma è ovvio che era quella la decisione giusta.

      Ma mi pare che tu abbia in testa qualcos’altro, e in ogni caso questo è sviluppo regionale, non iperlocalizzazione. Mi spieghi meglio?

      Ottimo sul mobile, anche questo lo includo.

      Replica
  11. giulio quaggiotto

    Ciao Alberto,
    per carita’, se sei ignorantello tu che queste cose le hai vissute in prima persona, cosa siamo noi??!

    Sono d’accordo con te sui limiti della localizzazione, anche se credo molto dipenda dalle modalita’ di interazione. Penso per esempio a progetti come Big Green Challenge (http://www.nesta.org.uk/areas_of_work/public_services_lab/environment/big_green_challenge) di Nesta che sono riusciti – almeno a quanto si legge – a rendere comunita’ locali coinvolte in politiche sul cambiamento climatico che spesso risultano molto astratte. Transition towns (http://www.transitiontowns.org) segue un po’ lo stesso modello.

    In generale, leggendo il capitolo, mi e’ venuta spontanea la domanda: le politiche wiki hanno piu’ probabilita’ di successo a livello locale, nazionale o internazionale? Molto egoisticamente, mi piacerebbe leggere le tue riflessioni a riguardo, quindi puoi interpretare questo come un invito ufficiale ad aggiungere un capitolo sul tema!

    Replica
    1. Alberto Autore articolo

      Giulio, conosco un po’ il Transition network, ma non Big Green Challenge. Per quello che ne ho capito, sono eredi della vecchia tradizione verde di pensare globalmente ma agire localmente. La collaborazione di massa, con la sua enfasi sugli effetti emergenti dell’interazione di tantissimi agenti anche piccoli, non fa che dare un nuovo strumento a quel modo di pensare.

      La domanda sul livello è carina, ma non credo di riuscire a riempirci un capitolo perché non ho poi tutti questi esempi da fare. In generale, wiki funziona sul concetto di community, ma la community non è necessariamente determinata nello spazio. Se ragioni in termini di reti e di grafi, termini come “topologia”. “locale” e “distanza” hanno a che fare con le connessioni tra i nodi, non con la distanza fisica. La community che in questo momento sta lavorando con me a Wikicrazia, per esempio, è sovralocale: to sei a Washington, David a Bruxelles, Paul a Londra, io a Milano etc, ma siamo tutti a un grado di separazione e riusciamo a coordinarci in modo abbastanza stretto. Viceversa, convincere i miei vicini di casa a occuparsi del tema richiederebbe uno sforzo gigantesco!

      Insomma, la dimensione di vicinanza di wiki è la comunità di interessi e di visione; è una dimensione ortogonale a quella spaziale. A volte – come nelle Transition towns – può capitare che le due dimensioni coincidano, più spesso non sarà così. Se devo proprio azzardare una previsione, dico che i livelli più alti – nazionale e internazionale – hanno il vantaggio che possono reclutare da un bacino più ampio, e fanno meno fatica a raggiungere massa critica. Che dici?

      Replica
  12. Giovanni Calia

    A proposito di “Intelligenza collettiva vs. intelligenza individuale”. Te la butto lì. E’ una citazione di Pierre Lévy che descrive molto bene il tutto e che trovo sempre appropriata in questi casi:

    “Per me l’intelligenza collettiva umana è molto diversa dall’intelligenza collettiva delle formiche o delle api. Un formicaio è intelligente ma non lo è una formica; essa non è più intelligente quando il formicaio diventa più intelligente mentre quanto più l’essere umano vive in una cultura ricca tanto più lo spirito individuale si arricchisce. Esiste, perciò, una dimensione olografica nell’intelligenza collettiva; in fin dei conti, quello che mi interessa è l’arricchimento di una persona. […] l’ “intelligenza collettiva” è il prodotto della memoria collettiva, dell’immaginario collettivo, e diventa progetto quando l’uomo mette a disposizione della collettività gli strumenti che permettono una interazione tra gli individui”.

    [P. Lévy, L’intelligenza collettiva. Per un’antropologia del cyberspazio, Feltrinelli, 1996.]

    Replica
    1. Alberto Autore articolo

      Giovanni, grazie. Quel saggio mi sa che è lo stesso già citato da lg alcuni commenti più sopra. Ok, ok, me lo guardo, avete vinto voi. 😆

      Replica
  13. Giovanni Calia

    I Media Sociali possono essere adottati per ampliare il numero e la varietà delle voci che partecipano al dibattito pubblico, ma sempre più spesso, soprattutto grazie agli strumenti sociali che la rete ci mette a disposizione, ad altre forme di lavoro collaborativo e di condivisione della conoscenza, queste voci si stanno imponendo come una vera democrazia decisionale che trae la sua forza dal basso, creando flussi di pensiero forti e condivisi, in grado di alterare i parametri classici di costruzione del pensiero collettivo.
    “Molti di noi già partecipano allo scambio di idee, informazioni e servizi che avviene online. Noi prendiamo parte ad un dialogo che avviene in comunità virtuali ospitate da una rete mobile e continuamente riconfigurata. Presto ognuno di noi avrà il proprio sito Web. In una manciata di anni ci avvalleremo di avatar o angeli digitali, capaci di discutere autonomamente fra loro, per inserire la nostra memoria, i nostri progetti e sogni nel cyberspazio. Ogni individuo, ogni gruppo ogni forma vivente o oggetto diverrà il proprio medium, emettendo dati e interpretandoli in una forma di comunicazione la cui trasparenza e ricchezza sarà stimolata tramite il confronto.”*
    Richard Florida, durante l’esame delle tendenze in atto nel mercato del lavoro degli Stati Uniti, ha definito le «classi creative**» come quella serie di caratteristiche e circostanze che permettono di incrementare la ricchezza, ossia la possibilità di sviluppo e crescita per una città o territorio (o per l’uomo connesso alla rete), per le quali il lavoro non è più meccanico né individuale. E’ il risultato di un’opera collettiva, che nega l’esistenza di una proprietà intellettuale del prodotto ed allarga le possibilità espressive della creatività.
    Come si può dedurre, scegliere la strada dell’eremitaggio elettronico non è ormai più possibile. Bisogna guardare alla nuova epoca cognitiva che De Kerckhove definisce (riprendendo il concetto di «società aurale***» di Marco Susani) come la possibilità di modificare e di estendere le capacità percettive del soggetto e la sua capacità di comunicare nel grande caos globale dei flussi informativi con strumenti come, per esempio, il blog.
    Tutto questo significa anche un cambiamento del modo di intendere l’organizzazione sociale: dalla gerarchia si passa alla rete.

    * [Levy, P. Collective Intelligence, a civilisation, http://www.mit.edu/~fca/levy/Collective_Intelligence.html ]
    ** R. Florida, The Rise of the Creative Class. And How It’s Transforming Work, Leisure and Everyday Life, Basic Books, 2002
    *** Teoria che prevede l’estensione dei sensi umani attraverso la rete. L’ibridazione tra l’organico e il tecnico producono la “persona globale”, capace di una totale interconnessione con il mondo.

    Replica
  14. Giovanni Calia

    …sopra ho incollatopezzi della mia tesi tranquillamente riutilizzabili.
    Il senso è quello di rafforzare un capitolo, dando maggiore peso ad una riflessione, come diceva giulio quaggiotto, sulla teoria della collettività e dell’intelligenza collettiva/connettiva.
    Trovo infatti che la teoria di Derrick De Kerckhove sull’intelligenza connettiva abbia un peso fondamentale nella ostruzione delle società del futuro, società intese come collettività, nuclei sociali, cittadini.
    Il fatto stesso infatti di utilizzare degli strumenti sociali, di usare la rete, porterà loro (e anche un po’ noi, ma siamo ancora all’inizio), a sentire la necessità di avere un approccio diverso dal nostro, soprattutto nei confronti delle istituzioni. Il fatto stesso di usare queste tencologie socialmente abilitanti, porta ad avere un approccio diverso nel quotidiano, con gli altri, con i luoghi che ci circondano e ovviamente con le istituzioni, cioè con quegli organi che regolamentano la nostra vita.
    La rivoluzione è quindi obbligata a passare dal basso in questo senso e si raggiungerà appena avremo raggiuno in livello di inclusione sociale – mediante la tecnologia – tale da permettere il raggiungimento di una massa critica sufficiente a far sentire la necessità di organizzarsi socialmente e istituzionalmente, in maniera diversa.

    Spero di essere stato d’aiuto, perlomeno per una riflessione.

    Replica
  15. Anna Natali

    La crisi ambientale del Golfo del Messico spinge la BP invocare soccorso, chiedere a tutti, sollecitare contributi. Si muove l’intelligenza collettiva. Per i rifiuti a Napoli la storia è simile, benché a scala diversa sono una vera emergenza e ci si immagina possibile, o anche probabile, che la Regione possa aprire ai contributi di cittadini e stakeholder, dopo di che gli allevatori si autselezionano e dicono la loro. La crisi ambientale, economica, sociale, che per i cittadini significa malattia, povertà, sofferenza, per il sistema politico significa crisi di legittimazione e da qualche parte va recuperata. Esiste un nesso tra crisi di legittimazione e uso dell’intelligenza collettiva nelle politiche pubbliche? Questo uso può essere visto come una risposta a cui le istituzioni fanno ricorso per reagire alla crisi di legittimazione? Da questo specifico punto di vista, è possibile considerare la mobilitazione dell’intelligenza collettiva come una soluzione aggiornata, alle esigenze che già ispirarono l’invenzione della concertazione negli anni novanta?

    Replica
  16. Francesco Silvestri

    Dici: “Forse anche per questo, man mano che sempre più persone usano i media sociali, vengono apprezzate le forme brevi: l’abstract e non il saggio, le slides e non il testo della presentazione, il video di tre minuti di riassunto e non la versione integrale”.

    Questo però spesso non è sintesi, ma “fuffa” (non ho niente da dire e allora sparo delle slide vacue). Tu stesso hai deciso di scrivere un libro non di fare delle slide…

    Altra questione: è vero quello che dici sulla necessità di tener viva l’attenzione (esempio a contrario di rinforzo al tuo: ormai è impossibile sperare che i relatori di un convegno stiano nei tempi loro assegnati; sono stato già “filtrrato” e proposto alla platea come esperto, svacca senza timori). Però dicevo, la partecipazione wiki ha anche i suoi contro: se continuo a partecipare, a dire la mia e nessuno mai dà dimostrazione di apprezzare il mio contributo (assumendolo, non solo ringraziandomi per averlo dato), dopo un po’ non si partecipa più. Intendo dire che con wikipedia è più semplice, io modifico e – al limite – altri mi eliminano se ritengono che abbia detto una vaccata, con le politiche wiki filtri (ex-post, ma comunque lo fai) e se mi filtri sempre, poi io abbandono. Si crea insomma anche sul web quella dinamica raccontata dalla tipa che seguiva il dibattito delle Fonderie Emiliane (o tipica di ogni Agenda 21 Locale: si parte in tanti e pieni di buoni propositi, si arriva in pochi e gente che ha poco da fare).

    Nel paragrafo “Molti partecipanti, molta legittimazione”: di nuovo facendo un parallelo con la A21L, come reagisce la rete al rischio di lobbying? Perché il decisore pubblico on line dovrebbe essere diverso da quello off line (che a parole favorisce la partecipazione, ma poi prende le decisioni con i decision makers nel chiuso del suo ufficio)? Le A21L falliscono perché i commercianti di via Garibaldi anziché discutere in pubblico delle loro questioni mandano il proprio rappresentante di punta a parlare con l’Assessore; perché in rete non dovrebbero fare lo stesso? Ma allora la questione è l’influenzabilità del policy maker, non lo strumento

    “Verrebbero intermediate” molto brutto (mediate è meglio, anche se dà l’idea del compromesso)

    Replica
  17. robertina

    “Il ciclone Katrina investe la città, provocando danni molto superiori alle aspettative…”: io sostituirei aspettative (che, almeno a me, evoca qualcosa di “desiderato”…) con “previsioni”.

    Replica
  18. Pingback: L’alluvione in Veneto e la Big Society visibile grazie ad un wiki | il blog di Michele d'Alena

  19. Pingback: La città digitale che vorrei | il blog di Michele d'Alena

  20. Pingback: Le invasioni digitali come metafora del paesePionero

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.