Uccidi 1 per salvare 5: la scelta che può fare una macchina senza conducente

Se hai seguito un corso di etica negli ultimi dodici anni, probabilmente conosci il Trolley Problem, un esperimento mentale ideato dal filosofo britannico Philippa Foot. Se non hai mai sentito parlare di questo problema, lascia che ti descriva lo scenario.

Immagina di essere su una collina e vedere che c'è un treno in corsa, che non può vedere intorno alla curva. Cinque persone sono legate alle piste. Il loro destino sembra sigillato. Per fortuna vorrebbe che, però, ti trovi in ​​piedi vicino a un interruttore. Se si lancia l'interruttore, il treno verrà deviato su un'altra pista prima di raggiungere le vittime sfortunate.

cosa fai? Devia il treno, naturalmente.

Ma c'è un problema. Sul sidecack c'è una persona che si occupa dei propri affari. Quindi, se si smista il treno, una persona morirà.

Ora cosa fai? Il problema è un po 'più difficile. Tuttavia, la maggior parte della gente dice che avrebbe commesso l'interruttore perché così facendo hanno salvato cinque vite a scapito di una. Questo è il riflesso di un modo di pensare ai problemi etici: l'azione migliore è quella che porta al bene più grande per il maggior numero. È un calcolo che guida molto il pensiero.

Ma come i filosofi sono soliti fare, rendono le cose più complicate cambiando le condizioni. Una variante è immaginare di essere su un ponte e il treno è diretto verso le cinque persone. Non c'è nessun interruttore questa volta. Ma non tutto è perduto. Succede che sei in piedi accanto a una persona molto grande, una persona così grande che non c'è dubbio che se dovessi spingerli oltre e davanti al treno, il treno si fermerebbe prima di colpire i cinque.

Ora cosa faresti? Anche se il risultato è lo stesso: salvare cinque vite sacrificando la maggior parte delle persone non spingerebbe la persona. Mettendo letteralmente le mani su qualcuno, il risultato viene spostato da un calcolo a un'emozione, dal momento che la morte è una statistica, che una morte è una tragedia fatta da te.

Mentre molti esperimenti di pensiero sono ideali per la discussione di classe senza alcuna apparente applicazione della vita reale, il problema del carrello è in prima linea nella rivoluzione tecnologica odierna. Le auto senza conducente, ancora in fase di sviluppo ma che sicuramente compariranno nello showroom nei prossimi anni, dovranno aver programmato in esse una risposta a questo esperimento mentale.

Immagina che davanti alla tua auto senza conducente cinque bambini ti precedano. La macchina, programmata per la sicurezza, devia per evitare di colpirli. Ma diciamo che così facendo, deve colpire un pedone sul marciapiede. Cinque-per-uno. Ma cosa succede se invece di colpire una persona, al fine di evitare di colpire i bambini si è schiantato contro un muro, uccidendo l'autista.

Puoi immaginare un numero di varianti. Eccone solo due: invece di bambini in età scolare, sono vecchi che tornano al centro geriatrico; invece di un estraneo sul marciapiede, è tuo parente.

Decisioni simili sono già state prese. L'esercito deve decidere chi e quanti moriranno per portare a termine una missione. Le procedure di triage ospedaliero sono un altro esempio, come lo è stabilire protocolli per trapianti per quanto riguarda gli organi a scarseggiare. La politica della polizia per quanto riguarda le situazioni di sparatutto attivo è ignorare coloro che hanno bisogno di assistenza e andare invece dietro al tiratore.

Non importa quale algoritmo i programmatori della Silicon Valley creino per le auto senza conducente non soddisferà la sensibilità morale di tutti. E questo perché questo è un dilemma etico con risposte contraddittorie. Una cosa è sedersi di fronte a un computer per arrivare a una decisione morale. È un altro essere in macchina quando la decisione è personale.

Forse l'approccio migliore è consentire ai conducenti di scegliere quale delle opzioni desiderano. Un altro è quello di spegnere il programma, nel qual caso il punto di avere una macchina senza conducente non conta più.