A proposito di scelte, dilemmi con una componente etica, e di come i problemi ci vengono presentati. Scelte che vengono influenzate dalla struttura del problema stesso, molto più che da quella che apparirebbe come la sostanza…

tempo di lettura 10′

Mettiamola così.

Nel vostro dipartimento di R&D (siete il CEO di una grande azienda) uno dei progetti di sviluppo (X) attraversa una fase molto delicata. Rischia un rapido tracollo, e non vi sfugge che, con il solo budget ad esso allocato, non ce la farà ad evitarlo. Conoscete bene le politiche del vostro HR, e capite immediatamente che, in assenza di interventi di sostegno, le cinque persone che vi lavorano perderanno irrimediabilmente il posto. Mentre studiate la situazione, vi fanno osservare che anche il progetto Y, del tutto simile a X quanto a prospettive, versa in analoghe difficoltà. Con la differenza che, in caso di smantellamento, una sola persona verrà lasciata a casa. Così, vi viene la tentazione di immaginare cosa accadrebbe se  decideste di trasferire il budget di Y sul progetto X. Questa manovra, che potreste portare a termine legittimamente, e lontano da occhi indiscreti, eviterebbe il licenziamento allo staff  del progetto X, seppure a costo di smantellare Y. Il vostro ruolo di CEO vi pone dunque di fronte a un evidente dilemma: evitate di intervenire, accettando implicitamente il licenziamento di cinque persone? Oppure, senza esporvi con i vostri dipendenti, trasferite il budget di Y su X, limitando la perdita di posti di lavoro a un’unica persona?

Se avete privilegiato il progetto X, proprio in ragione del fatto che in questo modo salverete un maggior numero di persone, troviamo il vostro comportamento perfettamente comprensibile. Ma provate a modificare leggermente lo scenario. Stessi progetti, stessi budget, ecc. Solo che, stavolta, come alternativa alla scelta di non intervenire, non vi basterà cambiare anonimamente un numero su di un foglio Excel: dovrete metterci la faccia. In altre parole, vi tocca affrontare vis-a-vis il malcapitato che sta facendo del suo meglio sul progetto Y, ed inventarvi qualche scusa per giustificare il fatto che lo state personalmente licenziando. Ripeto, personalmente. Così stando le cose, siete ancora così convinti che salvare cinque persone, pur sacrificandone iniquamente un’altra, sia la scelta giusta da fare?

Se vi viene qualche dubbio, consolatevi: siete in ottima compagnia.

Possiamo vedere facilmente che nel primo scenario la logica della decisione sembra inattaccabile. Siamo infatti indotti a guardare prima di tutto alle conseguenze della nostra scelta, che appaiono rincuoranti: un posto di lavoro mandato a ramengo è certamente meglio di cinque. Ma, nel secondo scenario, quelle medesime conseguenze che hanno giocato un ruolo essenziale nel primo non appaiono più incontrovertibilmente la sola cosa che conta. Il semplice fatto di arrecare personalmente un danno a un essere umano, per quanto al nobile fine di proteggerne altri, ci sembra improvvisamente immorale. Inoltre, a ben guardare, ci rendiamo facilmente conto di aver usato processi di valutazione qualitativamente differenti nei due scenari, nonostante essi siano così simili tra loro. Nel primo caso, decidiamo sulla base di una logica, per così dire, quantitativa, attenta al bilancio costi/benefici. Nel secondo, ci rifiutiamo di violare una specifica norma (“non fare del male a un altro essere umano”), indipendentemente dalle conseguenze. Qual è la piccola differenza tra i due casi che ci fa sbandare così quando si tratta di stabilire ciò che è giusto e ciò che è sbagliato? E cosa diavolo c’entra tutto cio con i tram del titolo (per non parlare della Tesla)?

Una cosa per volta.

Diversi anni fa, rileggevo, per l’ennesima volta, Il Maestro e Margherita, di Michail Bulgakov. Per chi non conoscesse il romanzo, il primo capitolo ci catapulta nella Mosca degli anni ’30, dove si sta preparando, in una società dichiaratamente atea, nientemeno che l’arrivo del Maligno. Protagonisti: un tram, una testa mozzata, e, per l’appunto, il diavolo.

Come sapete, tra i punti deboli della nostra mente c’è il fatto che qualsiasi pezzo di informazione (parola, immagine, concetto, ecc.) riesca ad infilarvisi, anche subliminalmente, può influenzare la percezione successiva. In particolare, esso  finisce con il balzare all’occhio più facilmente, anche quando sia affogato in un mare di altra informazione. Così non mi ha stupito il ritrovarmi a indugiare, nell’indice di un libro di filosofia morale, su un titolo che mi suonava familiare: il cosiddetto trolley problem (letteralmente il problema del carrello ferroviario, ma anche del tram) su cui si sono esercitate legioni di filosofi, economisti, evoluzionisti, neuroscienziati, e studenti negli ultimi cinquant’anni. Ecco di cosa si tratta (in una delle versioni più conosciute).

 

Il trolley problem

Un tram viaggia lanciato a tutta birra lungo il suo percorso. Dalla dinamica intuiamo che i freni sono rotti, o che il manovratore è svenuto. Insomma, è fuori controllo. A complicare le cose, poco più avanti ci sono cinque persone, legate come salami sul binario, cosicché il tram è destinato a ucciderli tutti. Fortunatamente, a metà strada, accanto al binario, ci siete voi; e oltretutto avete a portata di mano la leva di uno scambio che devierebbe il tram su un binario morto, evitando così di investire i cinque malcapitati. Purtroppo, come ogni economista sarebbe felice di ricordarvi, non esistono free lunch. Così anche sul percorso alternativo c’è una persona – anch’essa legata al binario, si capisce – che verrebbe investita al posto degli altri cinque.

Cosa fate? State fermi, lasciando che cinque persone vengano uccise, o azionate lo scambio, sacrificandone al loro posto una sola?

Prima di andare avanti, una piccola avvertenza. Questi tipi di problemi sono di solito costruiti a tavolino per discutere temi filosofici (questo dilemma, in particolare, conosciuto con il nome di Spur – “binario morto” – è stato escogitato negli anni ’60 dalla filosofa britannica Philippa Foot). Certo, potreste chiedervi cosa diavolo ci facciano cinque poveracci sui binari, impossibilitati a scappare all’arrivo di un tram. Posto che in Italia abbiamo purtroppo assistito a incidenti sul lavoro che tragicamente ricordano il nostro esempio, c’è da aspettarsi che questi aneddoti non si curino troppo della verosimiglianza (che ci fanno cinque inglesi legati come salami a un binario? È un’usanza nazionale? O fanno un pic-nic?).

Ma attenzione a non dismetterli come troppo semplicistici o irrealistici. Nell’ottobre del 2013, a San Francisco, la signora Daphne Jones ha davvero azionato un interruttore per deviare un tram fuori controllo su un binario di raccordo, salvando cinque persone che sarebbero altrimenti state uccise. Il tram ha finito con l’uccidere soltanto un certo Chester “Chet” Farley, che si trovava per caso sul binario morto. Per la cronaca, la signora Jones ha ricevuto un premio dal sindaco per aver salvato le cinque persone. Ma a sua volta un Gran Giurì l’ha condannata per omicidio preterintenzionale, ricordando che “la signora Jones non aveva il diritto di giocare a fare Dio”, e decidere chi dovesse morire e chi no (forse sarebbe stato meglio se il sindaco l’avesse rimproverata, e il tribunale assolta…)

Avrete notato che il problema del trolley somiglia a quello con cui abbiamo aperto l’articolo.

In effetti, parte del suo interesse risiede nel fatto che presenta la stessa struttura di molti dilemmi reali che svolgono un ruolo importante nelle nostre vite, a partire da quelli collegati alla cooperazione reciproca. Come nel caso dei due progetti, la maggior parte delle persone cui il problema viene sottoposto agirebbe per salvare le cinque persone, azionando la leva del cambio senza esitazione. Ma guardiamo ora una variante (footbridge problem) che ricorda la seconda versione dello scenario di progetto. Solito tram, solito gruppo di poveracci destinati al martirio. Questa volta, però, non siete di fianco al binario, ma su una passerella pedonale posta tra il tram e i cinque malcapitati. Accanto a voi, un signore, affacciato alla ringhiera, che porta sulle spalle un pesantissimo  zaino (N.B.: nella versione originale, elaborata alla filosofa del MIT Judith Jarvis Thomson, si parlava in realtà di un ciccione che, come vedrete, era altrettanto adatto alla funzione; scelta rapidamente declinata in un empito di politically correct, in un tentativo di non dileggiare la categoria degli obesi). Vi rendete conto che non avete altri modi per evitare l’incidente, se non far precipitare quell’uomo sui binari (provocandone, ovviamente, la dipartita): la sua massa, sommata a quello dello zaino, farà deragliare il tram, salvando i cinque (dal punto di vista etico, sarebbe meglio se voi stessi indossaste lo zaino e vi buttaste dal ponte personalmente; ma si dà il caso che non fareste in tempo a metterlo addosso; così le uniche opzioni rimangono non far nulla, o spingere giù la vittima sacrificale). La questione è: stiamo parlando dello stesso tipo di problema, o ci sono differenze importanti?

Ora, si dà il caso che, quando alle persone viene presentato questo doppio dilemma, succedano alcune cose interessanti.

  1. La maggior parte dei partecipanti (intorno al 90%), interrogata sul primo problema, si sentirebbe giustificata nell’azionare lo scambio (anzi lo considererebbe un atto doveroso), ma si rifiuterebbe di spingere l’uomo giù dalla passerella nel secondo. Le vite dei cinque sembrano valere in misura molto diversa da un caso all’altro.
  2. Questi risultati non dipendono da sesso, età, etnia, classe sociale, e dal fatto di avere o meno ricevuto prima di rispondere una lezione di filosofia morale.
  3. In entrambi i casi, solo una piccola minoranza dichiara di aver deciso in base a un ragionamento morale, una concatenazione di passi logici. La maggioranza ammette di aver dato risposte intuitive immediate, e spesso veementi. Le uniche argomentazioni sono espressioni del tipo “non so spiegare perché” o “mi è sembrata la cosa più sensata“. Sentiamo la differenza tra i due casi, anche se non ne conosciamo la ragione.
  4. Le poche volte in cui forniscono argomentazioni, i rispondenti al problema dello Spur giustificano la scelta in una prospettiva utilitaristica: un’azione giusta è quella che produce il massimo di utilità (leggi felicità) per il maggior numero di persone (un principio stabilito dal filosofo inglese Jeremy Bentham nel XIX secolo).
  5. Quando argomentano, i rispondenti al problema della passerella si richiamano a ragioni tipiche dell’approccio deontologico (inteso in un’accezione più larga di quella professionale). Di derivazione kantiana, esso sostiene, tra l’altro, che ogni uomo va considerato sempre come fine, e mai come mezzo (non usare le persone per altri fini che non siano esse stesse); e  per il quale dovremmo agire solo secondo regole che vorremmo diventassero leggi universali.
  6. Concezioni utilitaristica e deontologica sono come si vede profondamente diverse, e generalmente mutuamente esclusive.

Perché allora applichiamo logiche così diverse nei due casi?

Una interessante teoria sostiene che la differenza critica tra i due scenari sta nella misura in cui i comportamenti dei decisore coinvolgono fattori personali. Nel primo, spostate una leva inanimata. Nel secondo, uccidete con le vostre mani un essere umano.

Sembra infatti corroborato da esperimenti che ricorrono alla brain imaging, che in alcuni dilemmi morali il ruolo delle aree cerebrali associate alle emozioni sia preponderante rispetto a quelle legate ai processi cognitivi. Specialmente quando sono coinvolte violazioni personali, come nel caso della passerella. In questi casi la risposta istintiva precede e domina quella ragionata, che non ha possibilità di svilupparsi. Quella che ne viene fuori è quindi una teoria dual processdel giudizio morale, in cui la risposta “kantiana” (non violare i diritti delle persone) tende in situazioni di chiaro coinvolgimento personale a prevalere su quella “utilitaristica”, suscitando una forte risposta emozionale. Mentre, in condizioni più impersonali, la reazione emotiva è più blanda, e torna a crearsi uno spazio per una valutazione che tenga maggior conto, per così dire, di una più fredda analisi costi/benefici.

Scelte, Intelligenza Artificiale e macchine

Oltre a illuminare la comprensione del nostro comportamento morale, il trolley problem ha ritrovato di recente un nuovo impulso in modo alquanto inaspettato. Il problema di come dovremmo valutare le questioni morali, infatti, non riguarda solo il nostro comportamento personale e sociale. Con i progressi dell’intelligenza artificiale, infatti, ha cominciato a porsi la questione di quali principi morali cablare nelle macchine, una speculazione già presente  decenni fa nella letteratura di Asimov, che oggi si sta evolvendo in una vera e propria AI ethics. Tra i problemi che filosofi morali come Patrick Lin si stanno ponendo, oggi, c’è la questione se dovremmo lasciare che i costruttori abbiano mani libere nel progettare macchine intelligenti.

Tra i casi più urgenti, c’è naturalmente quello delle auto a guida autonoma. Molte delle sfide etiche poste ai progettisti possono infatti essere ricondotte proprio al nostro trolley problem. Cosa dovrebbe fare, ad esempio, un’auto che stia per travolgere un pedone che improvvisamente attraversi la strada? Cambiare corsia, con il rischio di causare un incidente ancora più grave, o rassegnarsi a sacrificare il malcapitato? O, ancora, l’auto è ferma davanti alle strisce pedonali per lasciar passare i bambini di una scuola, quando un veicolo arriva a tutta velocità dietro di esso. La guida autonoma deve essere progettata perché l’auto si sposti, salvando i passeggeri, o restare ferma e aspettare l’urto, per proteggere gli scolari?

Per sviluppare un sicurezza le tecnologie più nuove del mondo, servirà rispondere alle domande più vecchie del mondo.

Di Augusto Carena

Augusto Carena, ingegnere nucleare, si occupa di Simulazioni di Business, Systems Thinking, Decision Making complesso, e bias cognitivi nelle organizzazioni. Su questi temi svolge da trent’anni attività di formazione manageriale in Italia e all’estero. Con Giulio Sapelli lavora sulle culture d’impresa in progetti di etnografia organizzativa. Ha pubblicato con Antonio Mastrogiorgio La trappola del comandante (2012), sui bias nelle organizzazioni, e Dialoghi Inattuali. Sull’Etica