tempo di lettura 6′

24 febbraio 2022, l’esercito russo attacca su più fronti l’Ucraina.

Perché siamo così sorpresi dell’arrivo della guerra?

  • Una prima ipotesi da considerare per spiegare il nostro sconcerto è che Putin sia un abilissimo giocatore di scacchi (non ho idea se lo sia, fuori di metafora; so solo che è un appassionato praticante dell’hockey su ghiaccio). E che abbia previsto una mossa più avanti di tutti gli altri: un azzardo che lui ha calcolato, e noi no, per poi tornare a trattare in una posizione di maggiore forza. Potrebbe essere così. In questo caso, tuttavia, noi faremmo fatica ad accettare un’ipotesi del genere, perché siamo soggetti a un bias chiamato overconfidence (siamo destinatari di capacità assortite in misura superiore alla media), che ci renderebbe difficile immaginarci meno lungimiranti di un’altra persona (specialmente se così chiaramente out-group – vedi articolo precedente).
  • La seconda ipotesi da considerare è che Putin sia stupido. Non psicopatico, cioè uno perfettamente in grado di perseguire i suoi piani, ma totalmente privo di empatia e senso di colpa – che, a occhio, potrebbe anche essere. Dico stupido nel senso che Carlo Maria Cipolla battezza in Allegro non troppo: uno che produce danni agli altri senza procurare vantaggi a sé stesso, creandosi anzi seri guai personali. Per quanto sia uno sport praticato in ogni parte del mondo sostenere nelle conversazioni da bar che i potenti di turno, e più in generale i politici di ogni risma, siano stupidi, all’atto pratico non siamo poi così convinti di essere realmente nelle mani di pazzi. Ci sono molte ragioni per cui ciò accade (ad esempio, pensare davvero di essere governati da dementi non deporrebbe molto a favore della stessa nostra intelligenza, con buona pace della nostra overconfidence). Tra le tante, vale la pena di richiamare l’authority bias, la nostra tendenza a concedere fiducia e credibilità alle persone sulla base della posizione che occupano piuttosto che di altre evidenze (se è lì, non potrà essere uno stupido).

Se nessuna delle precedenti ipotesi è confacente al nostro caso, non siamo autorizzati scartare l’idea che ci sia qualcosa che non va nel nostro modo di immaginare il futuro. E, in effetti, ci sono diversi bias che girano intorno a questo tema, dalla capacità di anticipare la nostra reazione emotiva in circostanze future (distorsioni nell’affective forecasting), alla reale volontà di impegnarci a disegnare (almeno mentalmente) un domani sufficientemente diverso dall’oggi. È il caso, in particolare, dell’anchoring & adjustment effect. Si tratta di una scorciatoia mentale, la cui origine è sepolta nelle profondità del tempo, che usiamo regolarmente, e a volte inconsapevolmente, quando abbiamo necessità di valutare qualcosa di troppo inusuale o complesso per le nostre conoscenze dirette. Partiamo da un’informazione che abbiamo (o pensiamo di avere, o magari ricordiamo vagamente) e proviamo per approssimazioni successive a correggere il tiro sulla base di ipotesi che ci paiono ragionevoli. Quanti soldati ha l’Ucraina? Abbiamo sentito al telegiornale che la Federazione Russa ha più di 1.000.000 effettivi. L’Ucraina avrà una cinquantina di milioni di abitanti (?), quindi un terzo della Russia (?) che ne ha 150 milioni (?), quindi diciamo 350.000 soldati; ma sono meno guerrafondai, facciamo 300.000 (in realtà sono 142.000. Fossimo partiti dall’Italia – 175.000 effettivi, con una popolazione del 30% superiore, ci saremmo arrivati più vicini).

Come vedete, nel correggere il primo dato ci siamo fermati troppo presto (avremmo potuto aggiungere la storia precedente, il ruolo nell’ex URSS, le differenti politiche estere, ecc.). E questa è una tendenza generale: nell’immaginare qualcosa di insolito, partiamo da qualcosa di conosciuto (un’àncora), ma non riusciamo che raramente ad allontanarci a sufficienza da essa – la catena è troppo corta. Figuriamoci rappresentare la nostra vita (noi, nati e sempre vissuti in tempo di pace) proiettata in una situazione di guerra. Impossibile.

 

Ma io lo sapevo già! (?)

Spero proprio di no. Adesso è troppo presto (la nostra memoria sulle 24 ore non è poi così male). Ma temo che qualcuno, nei prossimi giorni, verrà fuori a sostenere che (in barba a quanto abbiamo scritto finora) aveva previsto tutto. Peggio: che solo i ciechi potevano non accorgersi di come sarebbe andata a finire.

Si tratta di un bias apparentemente innocuo, ma in realtà altamente dannoso per le relazioni di ogni genere, dalle amicizie ai matrimoni, ai rapporti professionali (ho appena troncato le relazioni diplomatiche con il mio consulente finanziario, che mi telefona oggi per dirmi che avrei dovuto ovviamente smobilizzare i miei investimenti la scorsa settimana. Peccato che, se davvero fosse stato così chiaro ai suoi occhi, avrebbe potuto avvisarmi). L’Hindsight bias (mia traduzione: Sindrome del Processo del Lunedì, di biscardiana memoria, dove tutte le scelte che gli allenatori avrebbero dovuto fare sono così evidenti, col senno di poi) assume a posteriori che eventi a priori estremamente improbabili fossero in realtà assolutamente inevitabili (e indovinate chi lo aveva previsto?).

Questo bias ha ricevuto il riconoscimento che merita grazie alla diffusione mediatica della teoria dei cigni neri, di Nassim Nicholas Taleb, che lo inserisce nel cuore della sua definizione degli eventi di enorme portata, improvvisi, e inesorabilmente imprevedibili. Oggi, in un’epoca in cui i cigni neri si ripresentano con una frequenza superiore che nel passato, l’hindsight bias è destinato a popolare la nostra esperienza, mediatica e personale, quotidiana.

Diffidate di coloro che, nei prossimi giorni, diranno “l’avevo detto io”. Aggiungendo, con locuzione pappagallescamente dilagante, “In tempi non sospetti”.

Deterrenza & bias: un aggiornamento

Nell’articolo di qualche giorno fa <Bias, deterrenza, Ucraina> provavo a dare una risposta generale al tema: perché qualcosa di logico ed evoluzionisticamente fondato come la deterrenza potrebbe non funzionare? Tradotto in circostante correnti: perché, nonostante il fatto che tutti gli analisti, giornalisti ed esperti assortiti sostengano, con abbondanza di evidenze, che una guerra sarebbe un disastro prima di tutto per Putin, questi potrebbe decidere di iniziarla lo stesso?

La risposta (per i cui dettagli rimando all’articolo) nella sostanza era: perché anche i decisori, come tutti noi, sono Humans, e non Econs.

Il Nobel Richard Thaler sostiene che troppe volte ragioniamo sulle sorti dell’umanità come se questa fosse composta da esemplari di homo oeconomicus, una specie di ircocervo partorito dalla fantasia degli economisti classici, che vive esclusivamente nelle pagine dei loro polverosi trattati. Dotato di potenza di calcolo e memoria da supercomputer, e di un’incrollabile volontà di calcolare la funzione di utilità di ogni cosa, agendo di conseguenza, l’Econ (così lo abbrevia Thaler) non è tipo da farsi influenzare dalla dimensione emotiva (è una specie di Dr. Spock de noantri). Capace, dunque, di un decision-making da manuale del comportamento razionale (classicamente parlando, of course).

Ma noi, ormai ne abbiamo evidenze scientifiche – se mai ce ne fosse ancora bisogno – non siamo Econs. Siamo semplicemente Humans. Le nostre decisioni sono soggette a influenze emotive, pigrizia cognitiva, distorsione da parte di fattori totalmente irrilevanti, manipolazione da parte di ogni tipo di tentazione. Per queste ragioni siamo soggetti ai cosiddetti bias cognitivi: più che al Dr. Spock, nelle nostre decisioni rischiamo di somigliare di più a Homer Simpson. Cosa di cui sarebbe il caso di tenere conto, nelle nostre analisi.

Questo breve addendum non vuole essere un commento ex-post a quanto sostenevo nell’articolo. La cui validità non dipende dal fatto che, in questa circostanza, le possibilità di erosione della deterrenza si siano attuate o meno. Se mai, è un commento sui commenti ex-post, e su qualche opinione ex-ante: non dei decisori, di cui abbiamo già parlato, bensì di noi osservatori.

creative-common

Di Augusto Carena

Augusto Carena, ingegnere nucleare, si occupa di Simulazioni di Business, Systems Thinking, Decision Making complesso, e bias cognitivi nelle organizzazioni. Su questi temi svolge da trent’anni attività di formazione manageriale in Italia e all’estero. Con Giulio Sapelli lavora sulle culture d’impresa in progetti di etnografia organizzativa. Ha pubblicato con Antonio Mastrogiorgio La trappola del comandante (2012), sui bias nelle organizzazioni, e Dialoghi Inattuali. Sull’Etica