Moral Machine, il dilemma etico della guida autonoma

Moral Machine, il dilemma etico della guida autonoma

Come dovrà comportarsi un’auto a guida autonoma quando si troverà ad affrontare l’inevitabile?

di Alessandro Vai

30.12.2016 11:08

La guida autonoma sarà il futuro dell’automobile. Presto o tardi le nostre vite inizieranno a combaciare con quelle che abbiamo sempre visto nei film di fantascienza, dove le auto guidano da sole e uno dei passeggeri ne assume solo occasionalmente il controllo. La tecnologia è praticamente già disponibile, ma manca tutto il resto: infrastrutture, regolamentazione e standard industriali, ma soprattutto ci sono dei dilemmi etici da risolvere e non sono di poco conto. Posto che a lungo termine le driverless car saranno più sicure di quelle guidate da persone in carne e ossa, proprio per la loro natura e cioè per la capacità di ridurre al minimo l’errore, che cosa succederà quando questo errore, umano o no, si presenterà?

Moral Machine, il dilemma etico della guida autonoma

Moral Machine, il dilemma etico della guida autonoma

Come dovrà comportarsi l'auto in situazioni di emergenza?

Guarda il video

In altre parole, come dovrà comportarsi un’auto a guida autonoma quando si troverà ad affrontare l’inevitabile? Quando i suoi sensori e il suo software avranno capito che non è possibile uscire da una situazione di pericolo, che scelte dovrà fare? Facciamo un esempio: se un anziano obeso attraversa fuori dalle strisce pedonali o con il semaforo rosso e la driverless car ha a bordo una madre con due figli piccoli, a quel punto che cosa deve fare? Rischiare una manovra di emergenza per salvare il pedone mettendo a repentaglio i passeggeri, oppure sacrificare il malcapitato e tutelare gli adulti di domani?

Se l’esempio vi sembra crudele, sappiate che ogni anno nel mondo muoiono circa 1,25 milioni di persone – automobilisti, motociclisti, ciclisti, pedoni e via dicendo -  a causa di incidenti stradali. Incidenti causati nella maggior parte dei casi da errori umani e quindi quasi del tutto casuali, anche e soprattutto nella dinamica. Quando un umano si trova in una situazione di emergenza reagisce d’istinto, non fa valutazioni razionali. La legge solitamente prevede pene per chi causa incidenti guidando in condizioni non idonee o scorrettamente, ma in una situazione come quella descritta prima, un guidatore sobrio, lucido e rispettoso del codice non subirebbe conseguenze per avere ucciso l’anziano obeso. Sarebbe accettata come “fatalità”.

Ma con le auto e i software che le governano, invece, sarà tutto diverso perché senza emozioni in gioco una scelta sarà sempre possibile. E qui si entra nel campo dell’etica e della morale. Dovendo scegliere chi salvare e chi tutelare, quali sono i criteri? Età, sesso, condizione fisica, rilevanza sociale, rispetto delle regole…la lista è lunga e le preferenze potrebbero essere molto soggettive. I legislatori di tutto il mondo, dunque, si troveranno ad affrontare un grande problema, cioè scegliere quali persone sono più sacrificabili delle altre e quindi di fatto a “gestire” circa 1 milione di morti ogni anno. sarà pure un numero puramente teorico, visto che comprende anche i Paesi a basso tasso di sviluppo dove la guida autonoma arriverà molto più tardi, ma fa comunque molto effetto.

Nel frattempo, al Massachusetts Institute of Technology hanno messo a punto una specie di sondaggio chiamato “Moral Machine” dove si chiede di indicare le preferenze di comportamento di un’auto a guida autonoma in una serie di situazioni “aut aut”. Insomma una specie di “Chi butti giù dalla torre?” che fa molto riflettere. Vi consigliamo di partecipare e poi, soprattutto, di leggere i risultati del vostro pensiero che potrete anche confrontare con quello degli altri. 

  • Link copiato

Commenti

Leggi auto.it su tutti i tuoi dispositivi

Auto, copertina del meseAuto, copertina del meseAuto, copertina del mese