Game of Prisons

axelrodwordcloud

Ugo e Paolo sono appena stati pizzicati dalla polizia sul luogo di un pestaggio. Vengono portati alla centrale e interrogati separatamente, ma entrambi sostengono di non avere nulla a che fare con quel che è successo. L’ispettore, consultandosi con i colleghi, arriva alla conclusione di non possedere abbastanza prove per un’incriminazione di primo grado, e allora decide di proporre a entrambi i sospettati un accordo. Egli visita prima Ugo e poi Paolo, che rimangono chiusi in stanze differenti, e ad entrambi offre la libertà immediata nel caso essi decidano di testimoniare contro l’altro, ma solo nel caso questi rimane zitto. Quindi Ugo si trova davanti la possibilità di accusare Paolo e venire rilasciato subito ma, se anche Paolo accusa Ugo, allora entrambi saranno considerati ugualmente colpevoli e rinchiusi per 2 anni. Allo stesso modo Paolo può accusare Ugo sperando che lui non lo accusi. D’altronde anche il silenzio è pericoloso perché se Ugo non parla e Paolo lo accusa, o viceversa, il primo passerà 3 anni interi in prigione. Solo nel caso ciascuno di loro si rifiuti di parlare essi otterranno la pena minore, vale a dire un solo anno di prigione. Come si comporteranno i due?

Image3Il gioco rappresentato in forma strategica. I numeri indicano gli anni di prigione cui vanno incontro Ugo e Paolo a differenza della propria e altrui decisione. La prima cifra in ogni casella si riferisce sempre al giocatore uno, in questo caso Ugo, mentre la seconda al giocatore due, cioè Paolo.

Ho dedicato la prima parte dello scorso articolo a discutere alcuni esperimenti mentali, per spiegarne il funzionamento e mostrare come essi abbiano permesso di fare luce su interrogativi esistenziali di spessore, e spesso di giungere a delle conclusioni inaspettate. Grazie al loro ambiente controllato, contraddistinto da regole precise, mondi ipotetici creati ad hoc hanno permesso ai pensatori di ogni epoca di esplorate logicamente ipotesi anche molto azzardate. Così Einstein immaginava di muoversi alla velocità delle luce e Parfit si chiedeva cosa sarebbe accaduto se il teletrasporto di Star Trek fosse stato non-distruttivo. Situazioni ovviamente irreali, impossibili da manipolare e indagare direttamente, e per questo non conclusive nel dimostrare nulla. Daniel Dennett ha soprannominato gli esperimenti mentali intuition pumps, per sottolineare la grande forza deduttiva essi si portano dietro, ma, come è ovvio, niente di quello che si raccontano i filosofi riguardo possibilità teoriche e controfattualità ha valore strettamente scientifico.

Qualcosa cambia quando si ha a che fare con ipotesi che, pur nella loro eccentricità, sono verificabili, come nel caso della storiella sui due individui imprigionati: è possibile creare artificialmente una situazione in cui soggetti sperimentali si trovano a prendere una decisione paragonabile a quella di Ugo e Paolo; oppure è possibile uscire dal laboratorio a studiare condizioni simili che si verificano nella vita reale.
Il primo approccio permette di isolare meglio le variabili in gioco, in modo da tracciare con chiarezza i rapporti di causalità, ma potrebbe condurre a conclusioni troppo astratte. Il secondo approccio consente di osservare come vanno realmente le cose, e quindi di arrivare a possedere descrizioni molto accurate della realtà, ma tali descrizioni potrebbero rivelarsi confuse, contraddittorie e perfino ingannevoli. Come succede spesso in ricerca questi due metodi convergono su quella piattaforma chiamata modello. La storia di Ugo e Paolo è una delle declinazioni di un modello molto particolare, molto famoso, che è noto come dilemma del prigioniero, ed è servito a studiare come le persone si comportano in situazioni in cui è possibile essere amichevoli oppure ostili, e raccogliere il frutto del proprio atteggiamento.

Voi che cosa fareste al posto, per esempio, di Ugo? Correreste il rischio del silenzio per cercare di arrivare a una situazione migliore per tutti o vi comportereste in maniera meno collaborativa, accusando l’altro immediatamente, concorrendo così per la liberazione ed evitando di rimanere fregati? In questa precisa situazione, con questi precisi anni di prigione in gioco (payoff), non è difficile immaginare come si comporteranno i due indagati.
Prendiamo il punto di vista di Ugo. Egli pensa: “Se Paolo sta zitto, mi conviene accusarlo, così mi evito un anno di prigione; se Paolo mi accusa, mi conviene lo stesso accusarlo, così almeno invece di 3 anni me ne faccio solo due. Ergo, qualsiasi scelta faccia Paolo, per me è sempre meglio accusarlo”. Paolo, se è razionale, farà lo stesso ragionamento, per cui i giocatori si accuseranno a vicenda ed entrambi si troveranno a dover scontare 2 anni, che è l’esito peggiore dal punto di vista globale, 4 anni di prigione in tutto. Il profilo di scelte {accuso, accuso} è un equilibrio, ovvero è la situazione in cui si va necessariamente a finire. Si parla di equilibrio di Nash quando, data una particolare coppia di scelte, nessuno dei due giocatori ha motivo di cambiare la propria. Ovvio no? Se sia Ugo sia Paolo accusano nessuno dei due preferirebbe tacere. Al contrario nelle due situazioni asimmetriche, {accuso, sto zitto} e viceversa, chi non parla preferirebbe eccome accusare l’altro. Allo stesso modo, e purtroppo, {sto zitto, sto zitto} non è un equilibrio, perché sia Ugo sia Paolo preferirebbero accusare e uscire di prigione immediatamente, e quindi potendo cambiano strategia.
Che si tratti di esperimenti in laboratorio, di modelli informatici o di osservazioni sul campo il risultato è sempre il medesimo: in caso di scelte singole individui razionali non collaborano. Qui gli aggettivi sono molto importanti, perché se le scelte non sono singole e/o gli individui non sono razionali l’equilibrio si trasforma ed è possibile tornare ad avere un po’ di fiducia nell’umanità. In realtà vedremo che il guadagno in fiducia sarà molto più elevato del quantitativo che abbiamo perso adesso arrivando a dire che chiunque sia razionale tende a tradire il proprio compagno.

Chi si imbatte per la prima volta nel dilemma nel prigioniero di solito ne esce un po’ scosso. Possibile che, nonostante all’interno del gioco esista una coppia di scelte che conduce a un risultato strettamente migliore di quello prodotto dall’equilibrio, in questo caso {sto zitto, sto zitto}, individui razionali non vi arrivino mai? Possibile che siamo così egoisti da giocare sempre {accuso}? In una situazione paragonabile a quella illustrata all’inizio del capitolo, sì. Facciamo un altro esempio, utilizzando un modellino ancora più semplificato, ma che ha dalla propria parte grande concretezza. Una compravendita a scatola chiusa, chiamata dagli economisti closed-bag exchange.
Immaginate di dover scambiare una valigetta piena di denaro con una piena di una qualche mercanzia, ma né voi né il vostro cliente potete aprirle per controllare il contenuto al momento dello scambio. Cosa vi impedisce di riempire la vostra valigia di carta invece che di soldi? Cosa impedisce all’altro giocatore di fare la medesima cosa?

586px-Prisoner's_Dilemma_briefcase_exchange_(colorized).svg Una rappresentazione grafica del closed-bag exchange in forma strategica.

Vediamo, potremmo chiedere a due soggetti di fare una transazione del genere in laboratorio. Li accogliamo, li mettiamo in due stanze diverse senza che facciano la conoscenza uno dell’altro, e li assegniamo ciascuno a un pc collegato attraverso rete locale. Tramite interfono a entrambi i soggetti (giocatore 1 e giocatore 2) vengono date queste informazioni: “Il giocatore uno possiede 20 fiches rosse, mentre il giocatore due ne possiede 20 blu. Le fiches rosse valgono 50 centesimi di euro per il giocatore uno e  1 euro per il giocatore due, viceversa, le fiches blu valgono 50 centesimi per il giocatore due e 1 euro per il giocatore uno. Dovete partecipare a uno scambio virtuale tra pacchetti che contengono le vostre fiches (20 in cambio di 20), in maniera da ottenere un guadagno netto, ma nel momento della transazione potete decidere di non tenere fede al patto e consegnare il pacchetto vuoto. Considerate che anche il vostro avversario può tradire la vostra fiducia e ingannarvi consegnandovi il pacco vuoto. Ora decidete cosa fare.”
Riassumendo. Se un giocatore consegna il pacco pieno e riceve un pacco pieno ottiene le fiches che valgono 1 euro, e se ne va con 20 euro in tasca. Se egli consegna il pacco vuoto e riceve il pacco vuoto, tiene le fiches che valgono 50 centesimi, e guadagna solo 10 euro. Se consegna il pacco vuoto e riceve il pacco pieno ha le fiches di partenza più le fiches dello scambio, e si trova con ben 30 euro. Se invece consegna il pacco pieno e riceve un pacco vuoto resta a becco asciutto: zero euro. Cosa succede?
Non mi risulta che un esperimento così sia mai stato condotto – è più facile trovare letteratura sul classico dilemma del prigioniero – ma il risultato può essere ipotizzabile. All’interno di un ampio campione di soggetti, secondo me, la maggioranza deciderà di tradire il compagno. Consegnare un pacco vuoto è come consegnare una valigia vuota, ed è come accusare l’avversario nel gioco presentato all’inizio del capitolo. Non è un modo solo per massimizzare il guadagno, ma funziona anche come strategia difensiva, perché in questo modo non si può venire imbrogliati.

Siete ancora interdetti? Pensate che debba esserci un trucco? È vero, in parte c’è un trucco. Sopra ho parlato del motivo per cui i modelli (che siano economici, biologici o fisici) hanno avuto un così grande successo: sono semplificazioni della realtà, permettono di isolare fenomeni e causalità che altrimenti si combinerebbero in maniera troppo complessa. Da un lato questo è un handicap, perché potrebbe condurre a conclusioni errate sul modo in cui vanno le cose, dall’altro però è un vantaggio, dal momento che è possibile arricchire il modello e osservare dove esso ci porta. Se manipolando una variabile all’interno di un contesto sperimentale si giunge a risultati diversi da quelli ottenuti in precedenza, allora è tale variabile a causare il cambiamento (sempre che accidentalmente non si siano modificati altri aspetti salienti  – possibilità che bisognerebbe tenere sempre in considerazione prima di pubblicare). E allora, se pensiamo che l’esito del nostro closed-bag exchange sia poco vicino ai comportamenti reali delle persone, ci dovremmo mettere a pensare a cosa potrebbe renderlo più verosimile.

Avremmo potuto, ad esempio, fare incontrare i due soggetti prima di separarli nelle due stanze. Persino, avremmo potuto chiedere a un complice disabile di dichiararsi l’avversario del nostro soggetto sperimentale. Avremmo potuto far partecipare i due soggetti, prima dell’esperimento, ad un gioco di cooperazione, come la risoluzione di un puzzle. Avremmo potuto prendere coppie di familiari. In questi casi l’esito sarebbe stato diverso?
Sicuramente l’empatia nei confronti dell’avversario aumenterebbe il numero di scambi “onesti”, così come l’impressione di avere un partner corretto e collaborativo. In famiglia si gioca, generalmente, di squadra, oltre a provare sentimenti positivi di appartenenza, per cui è presumibile che due fratelli tendano a cooperare, e praticamente certo una madre non tradisca il figlio. Quando ho specificato che il dilemma del prigioniero doveva coinvolgere individui razionali per produrre il risultato {accusa sempre, accusa sempre}, intendevo proprio dire che in caso si provi simpatia per l’avversario, o si sia particolarmente suscettibili al senso di colpa, allora è molto più difficile arrivare all’equilibrio. Invece la tendenza a cooperare con chi si considera proprio alleato, o con un proprio familiare, non è irrazionale, ma introduce una variabile più complicata da gestire (e quindi generatrice di complessità), che è la reputazione. Nel caso io conosca la reputazione del mio avversario – ad esempio, un buon amico – posso prevedere quello che egli giocherà e quindi comportarmi di conseguenza.

insideUn laboratorio di economia. Nessuna strana apparecchiatura, semplici postazioni individuali con pc.

Attraverso la reputazione torniamo ad un’altra condizione che di soppiatto ho posto nel momento in cui discutevo il dilemma del prigioniero classico: scelte singole. Ciò significa che il gioco, tra i medesimi individui, non deve essere condotto più di una volta. In caso contrario si creerebbe appunto reputazione, e la reputazione può spostare l’equilibrio dal profilo di scelte {accusa, accusa} a quello {non parlare, non parlare}. Per questo motivo il contesto del dilemma del prigioniero è costruito con una storia – quella della centrale di polizia e degli anni di prigione – che non ammette repliche al gioco. Il nostro esperimento sullo scambio di pacchetti invece può essere replicato quante volte vogliamo, rifornendo i giocatori di fiches ad ogni nuova prova. In questo caso di parla di closed-bag exchange iterato.
Qui ci troviamo di fronte a un’altra domanda essenziale: vogliamo dire ai giocatori quante manche li attendono oppure no? Nel caso il numero venga specificato l’ultima manche diventerebbe un gioco singolo, e abbiamo visto come i giochi singoli vanno a finire. Vale a dire, nessuno ha più niente da perdere e, anche se ipoteticamente fino a quel momento i giocatori avessero collaborato entrambi a quel punto tenderebbero a tradire. Però una volta dedotto che l’ultima manche sarebbe alquanto anarchica, la penultima perderebbe il suo potere di poter influire sulla seguente, e anche essa diventerebbe un gioco singolo, con tradimento assicurato. Il procedimento logico che conduce i giocatori a dedurre passo per passo che la strategia migliore sia sempre tradire prende il nome di backward induction. L’equilibrio così raggiunto è detto Equilibrio di Nash perfetto nei Sottogiochi, ovvero perfetto in ogni manche: qualsiasi strategia che non sia {pacco vuoto, pacco vuoto} non è perfetta nei sottogiochi, nel senso che c’è almeno una manche in cui essa non sarà scelta ottima.
Tornando alla concretissima situazione dello scambio di valige, se io e voi dobbiamo fare 100 transazioni è comprensibile pensare di far i furbi nell’ultimo scambio e passare una valigia vuota; mentre questo fatto, all’inizio, manderebbe a monte tutto l’affare, alla fine è lecito, perché non ci può essere una ritorsione. Ma dal momento che nell’ultima transazione tutti tenderebbero a tradire, allora l’esito non è più dubbio, e la penultima transazione diventa, di fatto, l’ultima. In pratica, portando il ragionamento avanti (o, per meglio dire indietro), non è difficile capire che la cosa migliore da fare è tradire subito, cioè tradire sempre, esattamente come nel gioco statico.

Cosa succede quando il numero di manche non viene specificato? Ciascun giocatore non sa se accadrà di dover commerciare ancora con lo stesso cliente, e quindi non può tradire stando certo di passarla franca. Nella realtà praticamente ogni gioco è di questo genere: perfino il blindato dilemma del prigioniero ad inizio articolo può contemplare una ritorsione nel caso di tradimento – da divoratore di serie tv americane quale io sono posso assicurare che è abbastanza tipico chiedere un favore ad un amico che sta fuori di prigione, un favore abbastanza sanguinolento. Figuriamoci in ambienti più aperti.
In campo lavorativo ad esempio. Se io sono un vostro collega e vi comando a bacchetta mentre voi siete disponibili nei miei confronti, avrò anche raggiunto il mio obiettivo senza il minimo sforzo, ma posso stare pur certo che la prossima volta non sarete più così gentili. Questa è una sorta di ritorsione, ovvero, dopo aver visto che io non collaboro, non collaborerete neanche voi, e ci si sposterà vero un profilo del genere  {accusa, accusa}; ma se io sono gentile, e voi siete gentili, e questo ci è utile, allora tenderemo a mantenere una condotta positiva, dal momento che in futuro potrebbe capitare di trovarci a cooperare nuovamente.
Qui però arriva una novità. Mentre nei giochi a scelta singola si poteva decidere una sola volta e una sola opzione, e i giochi iterati ma con numero chiuso di manche si riducevano a momenti statiche, queste situazioni aperte, indefinite, permettono di possedere strategie più variegate. Coopero sempre? Tradisco sempre? Una volta sì e una volta no? Casualmente? A differenza di cosa è successo prima? E in questo caso, in che modo? Finalmente ci è concesso allontanarci dai modellini stilizzati e dalle realtà economiche astratte, e iniziare a fare considerazioni sul mondo vero. E nel mondo vero i giochi sono tutti, sempre, iterati, con numero indefinito di manche.

Nel 1984 Robert Axelrod organizzò la prima competizione tra programmi di computer in grado di giocare tra di loro il dilemma del prigioniero iterato. Un dilemma del prigioniero di sostanza, in cui i fronzoli relativi al contesto non importavano, ed ogni manche era contraddistinta da una semplice scelta da parte di ciascun programma: coopero o tradisco. Da tutto il mondo vennero inviati a Chicago 15 programmi, diversi tra di loro solo nella strategia adottata per stabilire quale azione compiere via via che il gioco procedeva. Essi furono fatti girare su calcolatore uno contro l’altro, fino a che tutti non ebbero giocato contro tutti, e i punti furono assegnati secondo una matrice di payoff che indicava 3 punti nel caso di mutua cooperazione, 1 punto nel caso di mutuo tradimento, 5 punti nel caso della coppia tradimento-cooperazione, e zero nel caso di cooperazione-tradimento.
Quale programma ottenne il maggior punteggio? Quello che montava una strategia che successivamente venne denominata tit-for-tat. Tit-fot-tat iniziava il gioco cooperando e quindi si limitava a copiare quel che il suo avversario aveva scelto il turno precedente. Tit-for-tat era una strategia amichevole ma vendicativa: iniziava sempre cooperando ed era propensa a continuare la cooperazione ma nel caso di tradimento si spostava in assetto di guerra e continuava a tradire fino a che l’avversario non smetteva di farlo. Quando si trovò di fronte il programma che montava always defect (tradisci sempre), tit-for-tat perse la prima manche e pareggiò le successive, giungendo ad un punteggio leggermente peggiore dell’avversario, ma la sua flessibilità le permise di condurre gare migliori con la maggior parte degli altri partecipanti, arrivando spesso ad una lunga serie di cooperazioni, dal payoff molto positivo. Per l’amor della cronaca, comunque, la strategia always cooperate (coopera sempre) ottenne risultati molto peggiori di always defect, e fu tra le più fallimentari. Il cieco ottimismo è dannoso, deve essere bilanciato da un pratico senso di realtà o conduce alla rovina. Che sia di monito a tutti: la gentilezza unita a ritorsioni mirate è una qualità vincente, permette di vivere in pace con chi è benintenzionato e a giocare alla pari con chi ha invece cattive intenzioni. Tit-for-tat era una strategia molto umana.

La gara successiva vide vincitrice nuovamente tit-for-tat, ma tra le strategie proposte ve ne era una ancora più interessante, il tit-for-two-tats. La sua mancata vittoria fu dovuta alla presenza di molte strategie infami, che tit-for-tat seppe gestire meglio, ma fu provato che se tit-for-two-tats avesse partecipato alla prima competizione l’avrebbe vinta. Il programma che montava tit-for-two tats sapeva perdonare! Esso aspettava due tradimenti consecutivi prima di iniziare a tradire a sua volta e, nonostante questo lo esponesse a maggiori opportunismi, nel lungo periodo (o in ambienti non troppo tossici) questo gli permise di imboccare un maggior numero di strade cooperative. Dunque, ci insegna la teoria dei giochi, la maggior efficienza si ottiene unendo gentilezza, reazione all’ostilità e indulgenza. Infine, è importantissimo non essere invidiosi. I programmi che cercarono di pareggiare un vantaggio avversario iniziando a tradire si sono rivelati un fallimento, infilandosi in eterni vortici di mutui tradimenti. La situazione non veniva ribilanciata ed entrambi i giocatori si ritrovavano con un netto minore, alla fine. Anche nella vita, credo che l’abbiamo capito tutti, è meglio non farsi trascinare dall’astio per le fortune altrui e piuttosto concentrarsi sui propri traguardi.

Richard Dawkins in uno degli ultimi capitoli de Il Gene Egoista, aggiunto in edizioni successive alle pubblicazioni di Axelrod, riflette sul modo in cui il comportamento di animali e persone possa essersi evoluto per selezione naturale all’interno di una dilemma del prigioniero iterato. Tenendo conto che mutazioni casuali nel genoma specie-specifico sono avvenute e avvengono tuttora in natura, diviene possibile teorizzare scenari passati in cui i comportamenti individuali si siano stabilizzati per mezzo di giochi di competizione e cooperazione. Come ben sappiamo, su lunghi peridi la fitness adattiva di un particolare tratto ne assicura la diffusione o l’estinzione, e questo vale tanto per i tratti stabili quanto per quelli emergenti. Possibile che molti esempi di collaborazione nel mondo animale – e di riflesso nel mondo umano – si siano imposti grazie all’efficienza del profilo di strategie {coopera, coopera} all’interno di un dilemma del prigioniero iterato? La rimozione dei parassiti reciproca all’interno di un gruppo di uccelli, ad esempio. Il migliore scenario per ciascun individuo sarebbe stato sempre, logicamente, usufruire del servizio senza doverlo rendere, ma in quel caso nella manche successiva i traditori avrebbero potuto ricevere una ritorsione e venire esclusi dall’attività. All’interno di una popolazione composta da soggetti non molto altruisti, tra cui è dominante la strategia “tradisci”, un emergente tit-for-tat avrebbe grandi potenzialità evolutive, dal momento che permetterebbe a chi la possiede di non venire sfruttato dai compagni poco collaborativi ma al tempo stesso fare gruppo con quelli collaborativi. L’individuo tit-for-tat diverrebbe così, all’interno del gruppo, quello dalla maggior fitness riproduttiva e il numero dei suoi discendenti diventerebbe apprezzabilmente maggiore. Nel giro di poche decine di anni dalla prima mutazione fortunata l’intera popolazione potrebbe venire vista spulciarsi a vicenda. Una novità che fa comodo a tutti. Noi esseri umani siamo discendenti di quegli uccelli cooperativi, e siamo soggetti alle regole economiche esattamente come lo sono stati loro. Nel nostro cuore, ancora prima che competitività, amore, ferocia, creatività, empatia o qualsiasi altra caratteristica si voglia porre in evidenza, vi sono le caratteristiche tit-for-tat: affabilità, orgoglio ed indulgenza.

Image2

Ci stiamo avvicinando alla conclusione del discorso. È il momento di farci un po’ più ambiziosi e spingerci a proporre un modello più ampio, più globale, che coinvolga un maggior numero di interazioni. Lo scambio di favori nel regno animale, che abbiamo visto essere governato da un dilemma del prigioniero iterato sembra familiare perché assomiglia a molte realtà umane. Realtà non solo di convivenza, ma anche di arricchimento e crescita, come il commercio.
Vi invito a dare nuovamente un occhio ai payoff del closed-bag exchange nella versione da laboratorio che ho proposto. Utilizziamo le iniziali delle azioni “coopera” e “tradisce” per scrivere le coppie di scelte in maniera più formale. Avevamo detto che, rispetto all’ordine {cc, tt, tc, ct} i payoff per il giocatore 1 erano di {20,10,30,0} euro. Per il giocatore 2 sono invertiti gli ultimi numeri e abbiamo {20,10,0,30}. Ora, facciamo un piccolo cambiamento e teniamo in conto che nel tempo dell’esperimento ciascun giocatore avrebbe potuto dare un’ora di ripetizioni a un ragazzo delle scuole medie, per un compenso di 15 euro. Dunque, dal momento che partecipare all’esperimento è costato effettivamente 15 euro ad ognuno di loro, è necessario aggiustare i payoff, sottraendo tale cifra ai guadagni netti. Abbiamo per il giocatore 1 {5,-5,15,-15} e per il giocatore 2 {5,-5,-15,15}. Ora, nel caso in cui il primo coopera e il secondo tradisce i payoff sono simmetrici, uno negativo e l’altro positivo, per cui è possibile affermare che per le coppie di scelte {ct, tc} si ha un gioco a somma zero. Somma zero perché dove un giocatore guadagna, l’altro perde la medesima cifra. I giochi a somma zero sono giochi di ridistribuzione che prendono le risorse iniziali di ciascun partecipate e le posizionano diversamente. Un esempio è la lotteria, che prende il denaro di moltissime persone e le distribuisce tra il vincitore e l’organizzatore. Si tratta di un gioco a somma zero, un gioco in cui sono presenti dei vincitori e dei perdenti, e non si genera alcuna ricchezza.

Con i nuovi payoff il doppio tradimento diventa ancora meno appetibile, mentre la coppia di scelte {c,c} appare sempre migliore. Questa parte della matrice può essere considerata un gioco a somma non zero, che può risultare dannoso o benefico per tutti i partecipati. Nel caso di gioco statico abbiamo visto che l’equilibrio è poco efficiente e si finisce sempre per tradire l’avversario, mentre in un gioco dinamico, con le scelte iterate un numero indefinito di volte è più facile convergere  verso una serie di cooperazioni.
Recuperando l’esempio dello scambio di valigette possiamo pensare ad uno baratto di surplus manifatturiero, in cui il giocatore uno ha un’eccedenza di punte di lancia e il giocatore due un’eccedenza di pelli. Nel caso essi non cooperino, non scambiano, e quindi del lavoro va sprecato (payoff negativo per entrambi); il caso in cui uno cooperi e l’altro no può essere immaginato come un furto, in cui il più forte prevarica il più debole e si prende il prodotto, perdendo però la possibilità di commerciare in futuro con lo stesso giocatore (payoff simmetrico, positivo per uno, negativo per l’altro); infine se entrambi cooperano si trovano in mano un prodotto che, pur avendo sul mercato un prezzo uguale a quello ceduto, per ciascuno di loro ha maggior valore, e quindi rappresenta maggiore ricchezza. In quest’ultimo caso il payoff è positivo e il gioco a somma non zero si è risolto con un guadagno netto da entrambe le parti. La divisione del lavoro, il commercio, la specializzazione di produzione sono state tutte novità che hanno permesso di aumentare il guadagno ottenibile da entrambe le parti all’interno di un grande, grandissimo, dilemma del prigioniero iterato a somma non zero. Per questo si parla di progresso quando si prendono in considerazione novità sociali, economiche o tecnologiche. Il continuo aumento in efficacia dei nostri modelli di interazione, in prolungamento della nostra indole biologica tit-for-tat ci ha permesso, anche se in maniera non sempre equa, di progredire verso comportamenti economicamente più efficienti, in cui la somma del guadagno netto di tutti i giocatori è sempre largamente positiva, e in aumento. Il progresso guida da millenni le civiltà verso ciò che è meglio per i loro individui, verso la pace, la reciprocità e la ricchezza.

nonzero1Robert Wright è stato uno dei tanti divulgatori americani (giornalisti, economisti, scienziati, psicologi) ad aver riletto l’evoluzione culturale umana attraverso i modelli di teoria dei giochi. 

Bibliografia
Richard Dawkins, The Selfish Gene, 1976
Robert Axelrod, The Evolution of Cooperation, 1984
Robert Gibbons, A Primer in Game Theory, 1992
Robert Wright, Nonzero, 2000
Matt Ridley, A Rational Optimist, 2012
Appunti e dispense dalle lezioni del professor Antonio Filippin, 2013

Annunci

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...