tempo di lettura 9′

Il decision making strategico nelle teorie degli anni ’50 e ‘60

Negli anni ’50 e ’60 il campo era dominato (in linea con le teorie economiche di quegli anni) dall’idea che i decision-maker siano esseri razionali, in grado di utilizzare al meglio l’informazione disponibile per decidere nel migliore interesse di sé stessi, o delle loro organizzazioni. Il pensatore di riferimento di questa fase è il premio Nobel Thomas Schelling, e lo sfondo metodologico la teoria dei giochi, allora imperante. Jervis restituisce alla materia la complessità della psicologia: il leader porta nelle sue decisioni tutti i suoi bias, le sue idee preconcette, le esperienze personali, che spesso conteranno nella scelta finale non meno che l’oggettività delle situazioni. È la cosiddetta third wave della teoria della deterrenza – e “Rational Deterrence: Theory and Evidence” è appunto il titolo dello studio che mi era capitato per le mani, e che ho (molto sommariamente) scorso. Senza sospettare che sarebbe diventato di stretta attualità solo qualche giorno dopo.

 

Deterrenza = scoraggiare

Deterrenza è, potremmo dire, la pratica di scoraggiare o trattenere uno Stato dal mettere in pratica un’azione non desiderata, diciamo l’invasione armata di un Paese confinante. Nella visione classica della deterrenza, a contare sarebbero le condizioni oggettive (armamenti, dislocazioni, conseguenze delle mosse, ecc.). Nell’ipotesi di comportamento razionale delle parti in gioco, strategie ed equilibri possono essere studiati, entro certi limiti, dalla teoria dei giochi.

Esiste un ambito in cui le previsioni di questa teoria sono state rispettate. Una forma di deterrenza che, finora, ha funzionato (ormai sono passati diversi decenni): quella nucleare. Pur evolvendosi attraverso fasi diverse, essa ha garantito un comportamento complessivamente razionale (per quanto non saprei esattamente dove collocare il caso della Corea del Nord). La chiave, per l’appunto, è che tutti agiscano in modo razionale, cioè, nello specifico, ottimizzando i propri interessi nel quadro di quelli degli opponenti. Ma che succede se improvvisamente il tuo interlocutore agisce contro i suoi stessi interessi? Se, ad esempio, si rivela particolarmente soggetto ai bias cognitivi: deviazioni dal giudizio e dalla decisione razionali, che, quasi per definizione, possono dare origine a comportamenti subottimali, quando non apertamente masochistici?

 

La varietà dei bias, e dei meccanismi sottostanti, è ampia

Tanto che non esiste una risposta univoca. Potrei aspettarmi sensatamente che molti bias costituiscano un ostacolo alla deterrenza, anteponendo risposte irrazionali a quelle dettate dalla ragione. Mentre altri potrebbero contribuire a rinforzare scelte più ragionevoli. Certo, i risultati diventano più difficili da interpretare rispetto alla rassicurante matematica della teoria dei giochi (in fondo, il buon esito della deterrenza nucleare potrebbe essere proprio il risultato di una deliberata esclusione delle stranezze umane dall’intero processo). D’altra parte, i segnali che la deterrenza possa essere mandata in cavalleria dal nostro côté irrazionale non mancano. Leggo che, secondo uno studio di qualche tempo fa, a partire dal 1945 solo un terzo dei Paesi che hanno dato inizio a guerre sono poi riuscite a vincerle. Il che non testimonierebbe a favore della razionalità dei processi con cui tali conflitti sono stati decisi. (Mentre confesso di nutrire qualche dubbio su questo studio, ricordo che comunque gli esempi recenti di follia militare non fanno difetto, non ultimo Saddam Hussein – pure recidivo).

 

I bias cognitivi aiutano o ostacolano la deterrenza?

Oggi tutti sostengono che non è interesse di nessuno che la Russia invada l’Ucraina. Che tutti avrebbero molto da perdere, e i Russi ancora di più. Allora, perché siamo tutti qui col fiato sospeso in attesa di capire cosa farà Putin? Quali sono i bias che potrebbero mandare la deterrenza a farsi benedire?

Quando Jervis ha formulato la sua teoria, i bias cognitivi non erano conosciuti come oggi, e ruotavano prevalentemente intorno ai limiti nel processamento dell’informazione. Così lo studioso chiama in causa – a volte senza riferirsi loro con i nomi con cui sono conosciuti oggi – fenomeni facilmente associabili a molti tipi di decisione. “Scorciatoie” che contrastano l’eccesso di informazione (euristiche). La preferenza ad attingere a teorie che già si sostengono, interpretando ogni segnale come una loro conferma anziché cercare elementi a sostegno di teorie alternative (confirmation bias). La propensione ad interpretare la realtà corrente alla luce di esperienze recenti o salienti per l’esperienza personale o collettiva (availability heuristic). La inconsapevole tendenza a “decidere secondo una singola importante dimensione del valore”, invece di integrare valori diversi (focusing effect). Tutto molto sensato. Mancano, però, interi altri ambiti di bias che sono emersi, o sono stati studiati, successivamente.

Anche oggi, tuttavia, la letteratura offre assai poco in proposito. In assenza di supporti solidi, proverò a darvi qualche suggestione puramente qualitativa, e limitandomi, per ragioni di spazio, ad un campione molto ridotto delle stranezze che possono influenzare anche questo tipo, così importante, di decisioni.

 

Bias pericolosi come  overconfidence e groupthink, reactive devaluation e just-world hypothesis

Groupthink è una patologia del comportamento di gruppo, che si verifica quando il team è così coeso, e così impegnato a difendere la propria unanimità, da considerarsi parte di un in-group contro un out-group che gli si oppone. Già negli anni ’80 il groupthink fu studiato in relazione ai danni che aveva prodotto in materia militare e di politica internazionale (“Groupthink: Psychological studies of policy decisions and fiascoes”, Irving Janis, 1983). Tra gli esempi per cui l’effetto del bias era manifesto, Janis include la mancata previsione dell’attacco a Pearl Harbor, il disastro della Baia dei Porci, e l’escalation della guerra in Vietnam (ancora McNamara!). Quali sono i comportamenti che lo contraddistinguono? Eccone alcuni:

  1. Un’illusione di invulnerabilità , di overconfidence che alimenta un’eccessiva propensione al rischio, e una fede non suscettibile di discussione sulla moralità del gruppo, che può portare i membri a ignorare le conseguenze delle loro azioni.
  2. Una visione stereotipata di chi si oppone al gruppo – leggi nemico – come debole, malvagio o semplicemente stupido.
  3. Una censura autoprodotta delle opinioni che non si conformano alla presunta unanimità del gruppo. La quale si manifesta in un’illusione di consenso, in cui il silenzio è percepito come indice di assenso.
  4. Una forte pressione a conformarsi, dove il dissenso viene bollato come una forma di slealtà.
  5. L’emergere spontaneo di Mindguards auto-nominati, che si incaricano di filtrare il flusso di informazioni potenzialmente scomode o “pericolose” per la coesione del gruppo.

Gli effetti sul decision-making?

Li potete immaginare. Incompletezza nella definizione di obiettivi e opzioni, sottovalutazione del rischio dell’opzione scelta, scarsa flessibilità e apertura al nuovo, filtraggio orientato dell’informazione, e così via. Credo che nessuno di noi faccia fatica a immaginare tracce di questi comportamenti oggi, nelle stanze dei bottoni di Washington, Mosca, Kiev o Parigi.

Gli scienziati comportamentali usano il termine sunk cost fallacy per descrivere una situazione in cui l’economia classica sconsiglia di proseguire in un investimento ormai senza prospettiva, ma su cui sono state riversate molte risorse (sunk costs, ormai perduti, per l’appunto). Investimento sul quale, però, ci ostiniamo a continuare ad esporci, proprio a causa delle risorse che abbiamo investito fino a questo momento. Throwing good money after bad, come dicono gli anglosassoni.

Uscendo dalla dimensione economica, lo stesso meccanismo si traduce nell’escalation of commitment, che ci trattiene in un corso di eventi negativo o pericoloso perché ci siamo esposti troppo (anche solo in termini figurati: il timore di perdere la faccia). Così George Ball scriveva a Lyndon Johnson le sue previsioni sull’escalation in Vietnam: “Una volta che grandi quantità di truppe siano impegnate in combattimenti diretti, cominceranno a subire perdite pesanti in una guerra che non sono equipaggiati per combattere, in un Paese non cooperativo, se non apertamente ostile. Una volta subite gravi perdite, avremo dato il via a un processo irreversibile. Il nostro coinvolgimento sarà così grande che non potremo – a meno di una umiliazione nazionale – fermarci prima di aver raggiunto tutti gli obiettivi. Delle due possibilità, penso che l’umiliazione sarà più probabile del raggiungimento degli obiettivi, anche dopo che avremo pagato costi molto alti”. Se al costo delle vittime che ci sono già state (Russia e Ucraina hanno precedenti recenti) aggiungete il costo – rilevante, di questi tempi – dell’esposizione mediatica (dislocazione di truppe, proclami formali e informali, minacce di ritorsione, accuse di imperialismo, ecc.) converrete che questo bias possa essere una mina vagante nell’evoluzione di una “pacifica” deterrenza.

Alla guerra fredda risale anche un’interessante ipotesi, cui due psicologi di Stanford hanno dato il nome di reactive devaluation. In una survey destinata a cittadini statunitensi, questi dovevano esprimersi su una proposta di riduzione bilaterale degli arsenali tra USA e URSS. Solo che la stessa mozione veniva presentata, a tre sottogruppi diversi, come avanzata rispettivamente da Reagan, Gorbachev, o da una terza parte non allineata. I risultati mostravano chiaramente come la valutazione fosse alta nel primo gruppo, molto scarsa nel secondo, e intermedia nel terzo. Come dire, tendiamo a svalutare una proposta proveniente da altri, soprattutto se vengono percepiti come appartenenti a un campo antagonista (è la definizione di reactive devaluation). Potete figurarvi come questo bias impatti sui negoziati tra parti sull’orlo di un conflitto. Oggi, in un mondo non più bipolare, i “nemici” hanno finito col moltiplicarsi, anziché ridursi, e diventa sempre più difficile, nelle controversie tra “grandi”, che possa farsi avanti un potenziale mediatore con le credenziali di un vero non-allineato (la Cina, per gli USA, non è un terzo neutrale, ma un ulteriore nemico, per di più sospetto di flirtare con la Russia; meglio una Germania che mantiene una posizione un po’ più ambigua nell’alleanza occidentale).

Un ultimo cenno (ci fermiamo solo per mancanza di spazio) alla cosiddetta just-world hypothesis. La convinzione che, in fondo in fondo, il mondo sia equo, e che, quindi, in ultima analisi, la statura morale delle nostre azioni determinerà il loro risultato. Non ho molta speranza che i decisori agiscano sulla base di questo bias, ma ho la quasi certezza che su di esso basino la motivazione di parte dei loro eserciti, e il supporto dei propri popoli. Spostando una disputa di potere su un piano morale, è come se estendessero una sorta di groupthink ad honorem, e a partecipazione limitata, agli stakeholder del momento. Che effetto può avere sulla deterrenza, se non ha immediate implicazioni sui decisori? Beh, sapere di avere dietro di sé un popolo coinvolto in un’impresa morale è cosa da non lasciare impermeabili anche le figure più scafate. Come abbiamo avuto modo di osservare, più volte, anche in epoche in cui la comunicazione di massa era assai più limitata.

 

La conclusione.

A meno che le decisioni militari e strategiche non vengano un giorno affidate sostanzialmente a menti di silicio (aprendo una serie di problemi assai peggiori, cui non vorrei proprio assistere: anche l’Intelligenza Artificiale ha i suoi bias), ogni soluzione basata su considerazioni puramente razionali sarà sempre inevitabilmente minata da una miriade di bizzarrie della natura umana. Piuttosto che agire come se queste non esistessero, vale dunque la pena di prenderne, integrando questa conoscenza, per quanto limitata, nel processo decisionale, e tentando, semmai, di anticiparne gli effetti indesiderati. Come spero che accada nella complessa situazione che stiamo vivendo. Tanto che, questo articolo è programmato per auto-distruggersi con festeggiamenti quando i venti di guerra (che orribile espressione) si saranno allontanati.

Ultimo aggiornamento: Pufffff…

Di Augusto Carena

Augusto Carena, ingegnere nucleare, si occupa di Simulazioni di Business, Systems Thinking, Decision Making complesso, e bias cognitivi nelle organizzazioni. Su questi temi svolge da trent’anni attività di formazione manageriale in Italia e all’estero. Con Giulio Sapelli lavora sulle culture d’impresa in progetti di etnografia organizzativa. Ha pubblicato con Antonio Mastrogiorgio La trappola del comandante (2012), sui bias nelle organizzazioni, e Dialoghi Inattuali. Sull’Etica