Moralità, empatia e valore della teoria

Risolviamo insieme un problema: ho alcune materie prime che vorrei trasformare nella mia cena. Sono già riuscito a preparare e combinare gli ingredienti, quindi tutto quello che mi resta da fare è cucinarli. Come posso risolvere questo problema di cucinare il mio cibo? Bene, ho bisogno di una buona fonte di calore. In questo momento, il mio piano migliore è quello di salire sulla mia macchina e andare in giro un po ', perché ho notato che, dopo aver guidato per un po' di tempo, il motore della mia auto diventa piuttosto caldo. Immagino di poter usare il calore generato dalla guida per cucinare il mio cibo. Non sorprenderebbe nessuno se avessi un paio di obiezioni con il mio suggerimento, principalmente focalizzato sul fatto che le auto non sono mai state progettate per risolvere i problemi posti dalla cottura. Certo, generano calore, ma questo è davvero più un sottoprodotto della loro funzione prevista. Inoltre, il calore che producono non è particolarmente ben controllato o uniformemente distribuito. A seconda di come posiziono i miei ingredienti o della temperatura che richiedono, potrei finire con una cena parzialmente bruciata e parzialmente cruda che probabilmente è anche piena di olio, ghiaia e altri detriti che sono stati sollevati nel motore. Non solo il motore dell'auto non è molto efficiente in cucina, quindi, non è nemmeno molto igienico. Probabilmente ti consiglio di provare a usare un fornello o un forno.

Flickr/Robyn Gallant
"Non sono convinto. Prendimi un altro chilo di bacon; Ho intenzione di riprovare "
Fonte: Flickr / Robyn Gallant

Certo, questo esempio è eclatante nella sua stupidità, ma fa bene il suo punto: mentre ho notato che la mia macchina produce calore, ho frainteso la funzione del dispositivo più in generale e ho cercato di usarlo per risolvere un problema in modo inappropriato come risultato. La stessa logica vale anche nei casi in cui hai a che fare con meccanismi cognitivi evoluti. Ho esaminato di recente un problema di questo tipo, osservando che la punizione non sembra fare un buon lavoro come meccanismo per ispirare fiducia, almeno non rispetto alle sue alternative. Oggi volevo fare un'altra analisi sul problema di corrispondenza tra il problema prossimale e la funzione adattiva, stavolta esaminando un contesto diverso: dirigere gli aiuti al gran numero di persone in tutto il mondo che hanno bisogno dell'altruismo per allontanare la morte e non-letali, ma ancora abbastanza grave, la sofferenza (problemi come alleviare la malnutrizione e le malattie infettive). Se vuoi ispirare le persone ad aumentare la quantità di altruismo diretto verso queste popolazioni bisognose, dovrai fare appello ad alcuni componenti della nostra psicologia, quindi quali parti dovrebbero essere?

Il primo passo per risolvere questo problema è pensare a quali sistemi cognitivi potrebbero aumentare la quantità di altruismo diretto verso gli altri, e quindi esaminare la funzione adattativa di ciascuno per determinare se risolveranno il problema in modo particolarmente efficiente. Paul Bloom ha tentato un'analisi simile (circa tre anni fa, ma lo sto solo leggendo ora), sostenendo che i sistemi cognitivi empatici sembrano inadeguati per il problema dell'altruismo globale. Nello specifico, Bloom sostiene che l'empatia sembra più adatta a trattare istanze di altruismo a bersaglio singolo, piuttosto che progetti su larga scala. L'empatia, scrive, richiede una vittima identificabile, come le persone stanno dando (almeno in modo approssimativo) perché si identificano con l'obiettivo particolare e sentono il loro dolore. Questo diventa un problema, tuttavia, quando parli di una popolazione di 100 o 1000 persone, dal momento che semplicemente non possiamo identificarci con quel numero di obiettivi nello stesso momento. I nostri sistemi empatici non sono stati progettati per funzionare in questo modo e, in quanto tali, è improbabile che aumentando le loro uscite in qualche modo porti a una soluzione produttiva ai problemi delle risorse che affliggono determinate popolazioni. Piuttosto che indurci a dare in modo più efficace a chi ne ha bisogno, questi sistemi potrebbero invece indurci a investire ulteriormente in un singolo obiettivo. Anche se Bloom non è esplicito su questo punto, penso che probabilmente sarebbe d'accordo che questo ha qualcosa a che fare con i sistemi empatici che non si sono evoluti perché hanno risolto i problemi degli altri di per sé, ma piuttosto perché hanno fatto cose come aiutare la persona empatica a costruire relazioni con obiettivi specifici o segnalare le loro qualità come associate a coloro che osservano il comportamento altruistico.

Niente su quell'analisi mi sembra decisamente sbagliato. Tuttavia, a condizione che abbia compreso correttamente il suo significato, Bloom continua a suggerire che la questione di aiutare gli altri implica l'impegno dei nostri sistemi morali (come spiega in questo video, crede che l'empatia "fondamentalmente … peggiori il mondo", in il senso morale del termine, e scrive anche che c'è di più nella moralità – in questo caso, nell'aiutare gli altri – che nell'empatia). Il vero problema di questa idea è che i nostri sistemi morali non sono sistemi altruistici, anche se contengono componenti altruistici (più o meno allo stesso modo in cui la mia macchina non è un meccanismo di cottura, anche se genera calore). Questo può essere riassunto in vari modi, ma il più semplice è uno studio di Kurzban, DeScioli e Fein (2012) in cui ai partecipanti è stato presentato il dilemma della passerella ("Vuoi spingere una persona davanti a un treno? loro – per salvare cinque persone da essere uccise da esso a sua volta? "). Se uno era interessato ad essere un altruista efficace nel senso di offrire il maggior numero di benefici agli altri, spingere è sicuramente la via per andare sotto la semplice logica che cinque vite salvate è meglio di una vita risparmiata (assumendo che tutte le vite abbiano lo stesso valore ). I nostri sistemi morali si oppongono tipicamente a questa conclusione, tuttavia, suggerendo che il salvataggio delle vite dei cinque è inammissibile se ciò significa che dobbiamo uccidere l'uno. Ciò che è degno di nota nel documento di Kurzban et al (2012) è che puoi aumentare la disponibilità delle persone a spingere l'uno se le persone nel dilemma (sia spinte che salvate) sono parenti.

Flickr/James
La famiglia ha sempre le spalle in questo modo …
Fonte: Flickr / James

La ragione di questo aumento nello spingere quando si tratta di parenti, piuttosto che di estranei, sembra avere qualcosa a che fare con i nostri sistemi altruistici che si sono evoluti per fornire benefici a parenti genetici stretti; quelli che chiamiamo meccanismi selezionati dai parenti (le ghiandole mammarie sono un primo esempio). Questo modello di risultati del dilemma della passerella suggerisce che esiste una distinzione tra i nostri sistemi altruistici (che giovano agli altri) e quelli morali; essi funzionano per fare cose diverse e, come sembra, i nostri sistemi morali non sono molto più adatti per affrontare il problema dell'altruismo globale di quelli empatici. In effetti, una delle caratteristiche principali dei nostri sistemi morali è il non consequenzialità: l'idea che il valore morale di un atto dipenda più dalle sole conseguenze nette per gli altri. Se si cerca di essere un altruista efficace, quindi, usare il sistema morale per guidare il comportamento sembra essere un modo povero per risolvere quel problema perché il nostro sistema morale si concentra spesso sul comportamento di per sé a scapito delle sue conseguenze.

Non è l'unica ragione per essere diffidenti nei confronti del potere della moralità per risolvere problemi di altruismo efficaci. Come ho discusso altrove, i nostri sistemi morali funzionano per gestire le associazioni con altri, più tipicamente manipolando strategicamente il nostro comportamento nei conflitti (Marczyk, 2015). Se questa descrizione della funzione adattativa della moralità è vicina alla precisione, l'obiettivo metaforico del sistema morale è generare e mantenere relazioni sociali parziali. Queste relazioni parziali, per loro stessa natura, si oppongono agli obiettivi di un altruismo efficace, che è decisamente di portata imparziale. Il ragionamento di un altruismo efficace potrebbe, ad esempio, suggerire che sarebbe meglio per i genitori spendere i loro soldi non per le tasse scolastiche dei loro figli, ma piuttosto per alleviare la disidratazione in una popolazione in tutto il mondo. Una simile conclusione sarebbe in conflitto non solo con i risultati dei nostri sistemi altruistici selezionati dai parenti, ma potrebbe anche entrare in conflitto con altri aspetti dei nostri sistemi morali. Come alcune delle mie ricerche future, la gente sembra non percepire molto di un obbligo morale per gli estranei di dirigere l'altruismo nei confronti di altri estranei, ma percepiscono qualcosa di un obbligo per gli amici e la famiglia di aiutarsi a vicenda (in particolare quando minacciati da danno esterno). I nostri obblighi morali verso gli associati esistenti ci rendono peggiori altruisti efficaci (e, nel senso di Bloom del termine, persone moralmente peggiori a loro volta).

Mentre Bloom menziona che nessuno vuole vivere in quel tipo di mondo strettamente utilitaristico – uno in cui il benessere degli estranei è trattato allo stesso modo per il benessere di amici e parenti – sembra che stia sostenendo che tentiamo qualcosa di vicino quando lui scrive:

La nostra migliore speranza per il futuro non è far sì che le persone pensino a tutta l'umanità come a una famiglia – è impossibile. Si trova, invece, in un apprezzamento del fatto che, anche se non proviamo empatia con estranei lontani, le loro vite hanno lo stesso valore delle vite di coloro che amiamo.

L'apprezzamento del fatto che le vite degli altri abbiano un valore non è decisamente la stessa cosa che comportarsi come se avessero lo stesso valore di quelli che amiamo. Come la maggior parte degli altri al mondo, voglio che i miei amici e la mia famiglia apprezzino il mio benessere al di sopra del benessere degli altri; sostanzialmente così, in effetti. Ci sono ovvi benefici adattativi a tali relazioni, come sapere che mi prenderò cura di me nei momenti di bisogno. Al contrario, se gli altri non mostrassero particolare cura per il mio benessere, ma piuttosto cercassero di alleviare quante più sofferenze possibili dovunque esistesse nel mondo, non ci sarebbe alcun beneficio per il fatto che li conservassi come associati; mi avrebbero fornito assistenza o non l'avrebbero fatto, a prescindere dall'energia che ho speso (o non ho) a mantenere rapporti sociali con loro. Chiedere che il sistema morale sia un dispositivo di altruismo di carattere generale è improbabile che abbia molto più successo di chiedere alla mia macchina di essere un forno efficiente, che le persone trattino gli altri in tutto il mondo come se fossero parenti, o che entri in empatia con 1000 persone . Rappresenta una visione incompleta delle funzioni della nostra psicologia morale. Anche se la moralità potrebbe essere imparziale rispetto al comportamento, è improbabile che sia imparziale per quanto riguarda il valore sociale degli altri (motivo per cui, anche nella mia prossima ricerca, trovo che rubare per difendersi da un agente esterno di danno è valutato come più moralmente accettabile che farlo per acquistare droghe ricreative).

Flickr/Michael Kordahi
"Hai altrettanto valore per me come chiunque altro; anche le persone che non sono ancora vive "
Fonte: Flickr / Michael Kordahi

Per superare questa discussione, vale la pena menzionare anche quelle fastidiose e non intenzionali conseguenze che a volte accompagnano anche le migliori intenzioni. Sollevando le morti dalla disidratazione, dalla malaria e dalla fame di oggi, si potrebbe essere in grado di garantire un danno maggiore nelle generazioni future nella forma di aumentare il tasso di cambiamento climatico, l'estinzione delle specie e la distruzione dell'habitat causata dal sostenere popolazioni umane globali più grandi. Supponendo che per il momento fosse vero, ciò significherebbe che nutrire persone affamate e tenerle vive oggi sarebbe moralmente sbagliato? Entrambe le opzioni – trattenere l'altruismo quando potrebbe essere fornita e assicurare un danno alle generazioni future – potrebbero ottenere il marchio morale di disapprovazione, a seconda del gruppo di riferimento (dal punto di vista delle generazioni future che si occupano del riscaldamento globale, è male da sfamare; delle persone affamate, è male non nutrirsi). Questo è il motivo per cui la stragrande maggioranza dei partecipanti a Kurzban et al (2012) ha riferito che spingere e non spingere può essere un comportamento moralmente inaccettabile. Se ci affidiamo al nostro senso morale per guidare il nostro comportamento in questo caso, non avremmo molto successo nei nostri sforzi altruistici.

Riferimenti: Kurzban, R., DeScioli, P., & Fein, D. (2012). Hamilton vs Kant: Pitting adattamenti per l'altruismo contro l'adattamento per il giudizio morale. Evoluzione e comportamento umano, 33 , 323-333.

Marczyk, J. (2015). Teoria delle strategie di alleanza morale. Scienze psicologiche evoluzionistiche, 1 , 77-90.