Un bambino e una donna stanno attraversando la strada. Arriva un’auto a guida autonoma: se li investe, uccide entrambi. Se sterza per evitarli, finendo contro un albero, i due pedoni si salvano ma muoiono i due passeggeri dell’auto, un uomo e suo padre.
Come vorreste che la macchina decidesse in quegli istanti cruciali? E se sulle strisce, al posto della donna e del bambino, ci fosse un’anziana signora? E se i pedoni stessero attraversando con il rosso? Cambierebbe qualcosa se vi informassero che la persona alla guida è un criminale? O se sapeste che è un chirurgo che salva tutti i giorni vite umane?
Tra vantaggi e dubbi. Tra non molto questi dilemmi, per ora del tutto teorici, si porranno davvero nella realtà. Gli esperti prevedono che nei prossimi anni arriveranno sul mercato le prime auto a guida autonoma. Nonostante i numerosi vantaggi, tra cui - secondo le stime - una notevole riduzione del traffico e una diminuzione fino al 90 per cento degli incidenti, non sarà però possibile evitarli del tutto.
Le macchine dovranno essere programmate per prendere decisioni difficili, e rapide, nelle possibili situazioni d’emergenza.
Riflessioni per il presente. A richiamare l’attenzione sul problema e sulla necessità di pensarci per tempo sono stati tre studiosi, Iyad Rahwan, esperto di intelligenza artificiale del MIT di Boston, Jean-Francois Bonnefon, psicologo che studia le scelte economiche all’università di Tolosa, e Azim Shariff, psicologo all’università dell’Oregon.
Per indagare su come il pubblico percepisca questi problemi hanno condotto, tra giugno e novembre 2015, alcuni sondaggi online coinvolgendo quasi duemila persone negli Stati Uniti. Ai partecipanti veniva chiesto come volevano che la loro macchina si comportasse in vari scenari di incidenti che prevedevano la morte di persone a bordo dell’auto o per strada. I tre ricercatori hanno anche creato il sito MoralMachine, dove chiunque può rispondere a domande simili o proporre nuovi scenari.
Purché a bordo non ci sia io... Secondo i risultati dello studio, riportati in un articolo su Science, percentuali molto alte di persone, circa tre quarti degli intervistati, si sono detti d’accordo, in generale, sul fatto che in situazioni di emergenza debba prevalere il principio utilitaristico di salvare il maggior numero di vite possibile. In caso di necessità, dunque, la persona al volante della macchina autonoma dovrebbe essere sacrificata a favore dei pedoni.
Ma le cose cambiano se invece di parlare in astratto viene posta la domanda diretta:
compreresti una macchina che in circostanze simili, e con te a bordo, o con i tuoi familiari, andrebbe a sbattere contro un muro uccidendoti per non investire dei pedoni?
In questo caso diventano assai più numerosi coloro che non vorrebbero una macchina programmata in modo da sacrificare chi è bordo, che non la comprerebbero o non ci salirebbero.
Il dilemma dei venditori. Come sottolinea in un articolo di commento Joshua Greene, filosofo, neuroscienziato e studioso di scelte morali all’università di Harvard, il dilemma appare insolubile: le auto programmate per evitare i pedoni sarebbero criticate per "la scelta" di uccidere i loro passeggeri (e acquirenti); quelle che fanno "la scelta" opposta potrebbero ugualmente venire accusate di sacrificare più vite umane.
Una soluzione potrebbe essere quella di lasciare che siano i legislatori a scegliere, e programmare di conseguenza i sistemi dell'auto, ma le ricerche dimostrano che i cittadini non vedono di buon occhio questo tipo di imposizioni, e potrebbero scegliere di non comprare le auto autonome, ritardando il loro ingresso sul mercato e - indirettamente - lasciando che molte più persone perdano la vita in incidenti stradali.
Qualunque sia la scelta, il vero messaggio è che più che questioni tecniche ci saranno problemi etici da affrontare prima di far circolare le auto autonome sulle strade.