4 chiavi per comprendere la nostra strana, incoerente moralità

La ricerca aiuta a spiegare come pensiamo giusto e sbagliato.

Wason/Flickr

Fonte: Wason / Flickr

A quali fattori prestiamo attenzione quando formuliamo giudizi morali? Per la maggior parte di noi, dipende.

Innanzitutto, i risultati sicuramente contano. La ricerca mostra che anche i bambini preferiscono quelli che sono carini con gli altri rispetto a quelli che sono neutrali o cattivi.

Inoltre, i bambini preferiscono quelli che si comportano in modo positivo verso gli altri che sono carini. E i bambini evitano coloro che si comportano in modo positivo verso gli altri che sono cattivi. In parole povere, i bambini preferiscono quelli che sono carini con individui carini e intendono significare persone.

Fin dalla tenera età, quindi, giudichiamo il comportamento morale degli altri e usiamo queste informazioni quando decidiamo chi vogliamo.

Ma per gli adulti, non sono solo i risultati che contano. Quando formuliamo verdetti morali, prestiamo molta attenzione alle intenzioni.

Il presidente intendeva danneggiare l’ambiente?

La ricerca interculturale suggerisce che sia un principio generale di moralità, un “universale conoscitivo”, che le persone considerano sia le intenzioni che i risultati.

Ma le persone pensano alle intenzioni e ai risultati in modo diverso a seconda della situazione.

Ad esempio, c’è l’effetto Knobe. Ecco il famoso scenario del documento originale:

“Il vicepresidente di una società è andato dal presidente del consiglio di amministrazione e ha detto:” Stiamo pensando di iniziare un nuovo programma. Ci aiuterà ad aumentare i profitti, ma danneggerà anche l’ambiente.

Il presidente del consiglio di amministrazione ha risposto: “Non mi interessa affatto di danneggiare l’ambiente. Voglio solo fare più profitti che posso. Iniziamo il nuovo programma. ‘ Hanno iniziato il nuovo programma.

Abbastanza sicuro, l’ambiente è stato danneggiato. “

Alla domanda se il presidente intendesse danneggiare l’ambiente, l’82% degli intervistati ha risposto affermativamente.

Ma qualcosa di strano è successo quando è stata cambiata una singola parola.

In una versione diversa della storia, i ricercatori hanno sostituito la parola “danno” con “aiuto”. Ogni altra parte della storia era la stessa eccetto quella parola. I ricercatori hanno quindi chiesto ai partecipanti se il presidente intendesse aiutare l’ambiente.

Il 77% ha dichiarato che il presidente non ha intenzione di aiutare.

Cosa significa questo? L’esito di un’azione (dannosa o utile) ci porta a modificare retroattivamente la nostra percezione dei fatti (in questo caso, se una persona intendesse fare qualcosa o no).

Se succede qualcosa di brutto come effetto collaterale, pensiamo che la persona l’abbia fatto intenzionalmente. Ma se qualcosa di buono accade come effetto collaterale, non pensiamo che la persona l’abbia fatto intenzionalmente. Perchè no?

Una spiegazione viene dal filosofo Richard Holton. Holton afferma che il modo migliore per spiegare l’effetto Knobe è identificare se una persona viola o si conforma a una norma. Ad esempio, se una persona fa qualcosa sapendo che un effetto collaterale dell’azione violerà una norma, la consideriamo come intenzionale. Ma se una norma è sostenuta come un effetto collaterale, non è vista come intenzionale.

Tendiamo a vedere gli altri come norme di difesa sconsiderate, e usare l’intento consapevole di violarli.

Libero arbitrio e problema della malattia asiatica

Inoltre, non è solo intento. Siamo incoerenti anche sulla nostra attribuzione del libero arbitrio.

In una serie di esperimenti, i ricercatori hanno presentato ai partecipanti una versione adattata del problema della malattia asiatica. Nello scenario, 600.000 persone stanno per morire a causa di una malattia imminente.

I partecipanti poi leggono su una persona che deve decidere tra due opzioni: l’opzione “rischiosa” e l’opzione “sicura”.

L’opzione rischiosa offriva una terza possibilità di salvare tutti e due terzi di possibilità che tutti morissero. L’opzione sicura salverebbe sicuramente un terzo delle persone, ma gli altri due terzi moriranno sicuramente.

I ricercatori hanno detto ai partecipanti di immaginare che loro o la persona nello scenario hanno scelto l’opzione rischiosa.

Alla metà dei partecipanti è stato detto che il decisore nello scenario è riuscito a salvare tutti. All’altra metà è stato detto che il decisore ha fallito e tutte le 600.000 persone sono morte.

A loro è stato poi chiesto quanta volontà ha avuto ogni persona quando ha preso la sua decisione.

Nel complesso, i partecipanti hanno assegnato più libero arbitrio alla persona la cui decisione ha portato alla morte di tutte le 600.000 persone.

Anche qui l’idea della violazione della norma da parte di Holton ha senso. Se una persona riesce ad aiutare gli altri, ha mantenuto una norma. Ma se una persona non riesce ad aiutare gli altri, ha violato una norma.

In sintesi, le persone assegnano selettivamente il libero arbitrio agli altri a seconda dei risultati delle loro azioni. Le persone assegnano maggiore intento e libero arbitrio quando accadono cose brutte.

Colpa e punizione

Ricerche recenti suggeriscono che abbiamo due processi cognitivi che si scontrano quando formuliamo verdetti morali. Un processo è per il risultato. Un altro processo è per intento.

L’attrito tra questi processi ci porta ad assegnare la colpa e la punizione in modo diverso.

Un processo mentale valuta le intenzioni. Intendevano farlo? O è stato un incidente?

Il secondo processo mentale si preoccupa dei risultati. Cosa è successo realmente? Chi l’ha causato?

Supponiamo che un guidatore accenda involontariamente una luce rossa. Il conducente si schianta contro un’altra persona, che muore di conseguenza.

Sotto il modello a due processi, dovremmo affrontare un conflitto tra la contabilizzazione delle intenzioni del guidatore e il risultato dell’azione del guidatore.

Sappiamo che l’autista non intendeva fare del male a nessuno. La gente non assegnerebbe molta colpa. Ma molte persone vorrebbero comunque che l’autista venisse punito in qualche modo.

Eppure le intuizioni della gente differiscono nei casi in cui la persona intende causare danni, ma non ha successo.

Immagina che un guidatore voglia colpire un’altra persona, ma manca. Non è successo niente di veramente brutto.

Qui, le persone sono più disposte ad assegnare la colpa. La persona voleva fare qualcosa di male, dopo tutto. Ma la gente sarebbe meno disposta a punire il secondo pilota, che non ha causato danni, rispetto al primo pilota, chi lo ha fatto.

In altre parole, le persone pensano che coloro che commettono danni accidentali dovrebbero essere puniti ma non incolpati così fortemente. E la gente pensa che quelli che tentano di fare del male ma che non riescono dovrebbero essere accusati di essere puniti severamente. La nostra compulsione a punire dipende in gran parte dall’avvenimento di qualcosa di brutto. E la nostra costrizione a incolpare per lo più dipende dall’intenzione della persona.

Pensiamo che la punizione dovrebbe essere basata sui risultati, non sulle intenzioni. E pensiamo che la colpa dovrebbe essere basata sulle intenzioni, non sui risultati.

Doers pensanti e Sentitori vulnerabili

Il giudizio morale non è così semplice come guardare i risultati e le intenzioni, però. Un altro fattore è la percezione della mente.

Secondo la teoria della diade morale, per un atto che deve essere percepito come morale o immorale, deve contenere due individui. Abbiamo bisogno di un agente morale (un “operatore pensante”) e un paziente morale (un “tastatore vulnerabile”).

Ma non è così semplice come individuare un agente e un paziente e da lì concludere che si è verificata una violazione morale. Il processo può essere eseguito nella direzione opposta.

In parole semplici, quando pensiamo che sia successo qualcosa di brutto, siamo portati a identificare sia un agente morale che un paziente morale. Ad esempio, quando vediamo il danno e la sofferenza, vediamo i pazienti morali. Per completare la diade morale, siamo costretti a trovare un agente morale. “Chi è responsabile di questa sofferenza?”

In altre parole, quando le persone vedono qualcuno soffrire, la teoria della diade morale dice che cercheranno di trovare un agente, un “agente che pensa”.

Inoltre, le persone cercheranno di trovare pazienti morali di fronte a agenti che sembrano intuitivamente immorali. Anche se le vittime specifiche non sono immediatamente evidenti. Gli esempi includono un avido uomo d’affari, un ingegnere negligente o un politico disonesto. “Questa persona è ovviamente cattiva, ci devono essere vittime da qualche parte”.

Anche i reati consensuali moralizzati come l’uso di marijuana o la prostituzione possono provocare un tentativo di identificare un paziente morale. “Forse non li ferisce, ma la società viene danneggiata!”

Detto semplicemente, quando le persone percepiscono il danno, cercano di completare la diade morale identificando una vittima e un perpetratore.

Che cosa è anche la morale?

I ricercatori dietro la teoria della diade morale affermano che la moralità non consiste in “forze mistiche che esistono a parte l’umanità, ma semplicemente ciò che emerge attraverso le interazioni tra agenti e pazienti. Creare il male, solo intenzionalmente fa soffrire un’altra mente (ad esempio, calciare un cane), e creare il bene, solo intenzionalmente impedisce ad un’altra mente di soffrire (ad esempio, impedire a un cane di essere preso a calci) “.

Una maggiore volontà di assegnare la colpa piuttosto che elogiare in situazioni in cui gli stati mentali di agenti e pazienti differiscono in accordo con il neuroscienziato Joshua Greene che afferma: “Costruito nei nostri cervelli morali sono programmi psicologici automatizzati che abilitano e facilitano la cooperazione.” Questo meccanismo morale funziona implicitamente, permettendo agli umani di arrivare a verdetti morali con un piccolo pensiero riflessivo.

Inoltre, lo psicologo sociale Jonathan Haidt ha descritto i sistemi morali come “insiemi interconnessi di valori, virtù, norme, pratiche, identità, istituzioni, tecnologie e meccanismi psicologici evoluti che lavorano insieme per sopprimere o regolare l’interesse personale e rendere possibili società cooperative. “Sia Greene che Haidt enfatizzano le radici tribali della moralità umana. La cooperazione ha permesso ai nostri antenati di sopravvivere.

Come prendere decisioni morali

In effetti, Greene offre una soluzione per quando fare affidamento sui nostri meccanismi morali automatici e quando dovremmo essere più riflessivi sui giudizi morali. Chiaramente, quando abbiamo a che fare con membri della nostra tribù, il nostro in-gruppo, basandosi sul sentimento istintivo, va bene. Le probabilità ci porteranno a fare la cosa giusta. Ma quando ci occupiamo di estranei o di out-group, i nostri macchinari automatizzati sono inaffidabili. Qui, dovremmo scavalcare i nostri processi automatizzati e usare il pensiero riflessivo per fare la cosa giusta.

In-group = Usa le emozioni morali. Out-group = Usa la deliberazione morale.

Il ruolo della cooperazione potrebbe essere una delle ragioni per cui gli individui sono più disposti a biasimare che a elogiare. La volontà di condannare può essere guidata dall’obiettivo di cambiare il cattivo comportamento di una persona. E potrebbe servire come segnale di avvertimento agli altri per raddrizzarsi. Il desiderio di scoraggiare comportamenti scorretti è più potente dell’impulso di incoraggiare un comportamento positivo.

Una delle implicazioni è che le persone esaminano da vicino i casi in cui qualcosa di buono si è verificato prima di dare lodi morali. E le persone sono più veloci ad affrettare il giudizio morale e ad assegnare la colpa morale quando qualcosa di brutto è successo.

Agli occhi degli altri, è facile essere cattivi, e difficile essere buoni.

Puoi seguire Rob su Twitter qui: @robkhenderson.

Riferimenti

Cushman, F., Sheketoff, R., Wharton, S., & Carey, S. (2013). Lo sviluppo del giudizio morale basato sull’intento. Cognizione, 127 (1), 6-21.

Feldman, G., Wong, KFE, & Baumeister, RF (2016). Il male è più libero che buono: l’asimmetria positiva-negativa nelle attribuzioni del libero arbitrio. Coscienza e cognizione, 42, 26-40.

Gray, K., Waytz, A., & Young, L. (2012). La diade morale: un modello fondamentale che unifica il giudizio morale. Inchiesta psicologica, 23 (2), 206-215.

Gray, K., & Wegner, DM (2010). Incolpare Dio per il nostro dolore: sofferenza umana e mente divina. Rassegna di personalità e psicologia sociale, 14 (1), 7-16.

Greene, J. (2014). Tribù morali: emozione, ragione e il divario tra noi e loro. Pinguino.

Haidt, J. (2012). La mente retta: perché le brave persone sono divise dalla politica e dalla religione. Vintage ▾.

Hamlin, JK, Wynn, K., & Bloom, P. (2007). Valutazione sociale da parte dei bambini preverbali. Nature, 450 (7169), 557-559.

Hamlin, JK, Wynn, K., Bloom, P., e Mahajan, N. (2011). Come i neonati e i bambini reagiscono agli altri antisociali. Atti dell’Accademia nazionale delle scienze, 108 (50), 19931-19936.

Holton, R. (2010). Norme e l’effetto Knobe. Analisi, 70 (3), 417-424.

Saxe, R. (2016). Stato morale degli incidenti Atti della National Academy of Sciences, 113 (17), 4555-4557.

Tversky, A., & Kahneman, D. (1981). L’inquadramento delle decisioni e la psicologia della scelta. Science, 211 (4481), 453-458.

Wegner, DM, & Gray, K. (2017). The Mind Club: chi pensa, cosa sente e perché conta. Pinguino.