La filosofia dell'auto senza conducente

Il futuro dell'auto senza conducente non è legato solo al progresso tecnologico: sono ancora da risolvere dilemmi morali ed etici fondamentali per la nostra sicurezza. Ecco chi ci sta lavorando, e come.

30465436991_98178cf8bd_k
L'auto senza conducente non è solo tecnologia: ci sono diversi problemi etici ancora irrisolti che potrebbero ritardarne la diffusione.|Jaguar Mena /Flickr

Ingegneri, esperti di robotica e di intelligenza artificiale non sono gli unici a lavorare attorno alle vetture autonome: anche filosofi e studiosi di etica sono chiamati a dare un contributo importante al futuro dei trasporti. Il loro compito è quello di identificare le soluzioni più corrette (o forse "il male minore") a una serie di problemi etici che il software alla guida di un'auto senza conducente dovrà risolvere.

 

Il dilemma del conducente. Come si comporterà la vettura quando dovrà scegliere se investire un pedone o evitarlo rischiando però di cadere in una scarpata insieme ai suoi occupanti? Come deciderà se è meglio invadere una pista ciclabile o subire un frontale?


La morale è l'insieme dei principi generali che guidano il nostro comportamento e le nostre relazioni: l'etica è la pratica, la modalità della loro applicazione (diritti e doveri universali)

Diversi filosofi sono al lavoro da anni per risolvere questi e altri dilemmi che l'intelligenza artificiale delle vetture autonome dovrà gestire in frazioni di secondo.

 

Tra loro Nicholas Evans, docente di filosofia alla Mass Lowell University (Usa), che insieme a due ingegneri sta traducendo in forma di software i principi e poi le regole che guideranno i processi decisionali delle auto.

 

Filosofia del motore. Non è un compito facile. Evans e i suoi colleghi dovranno per prima cosa decidere quale corrente di pensiero seguire e, per esempio, quale valore assegnare alla vita del pedone e a quella dei passeggeri: perché, per quanto "intelligente" si tratta pur sempre di software e i numeri (costanti, variabili, funzioni...) sono la sua vera lingua.

 

I filosofi utilitaristi propongono di attribuire lo stesso valore a tutte le vite, e costringere così la macchina a scegliere di salvare più persone possibile. Altri sono invece convinti che l'auto debba per prima cosa proteggere i suoi passeggeri, anche al costo di rischiare la vita di chi è fuori e (per definizione) non appartiene alla "cerchia della vettura".

Ma programmare una macchina perché, in una situazione di emergenza, possa scegliere di fare o non fare del male a qualcuno, è accettabile? Badate: qui non si parla di "fattibilità". Il problema non è questo e si dà per scontato che sia fattibile o che c'è o ci sarà qualcuno che lavora per renderlo possibile. Qui l'aspetto tecnico interessa poco o nulla.

 

Scenari imprevisti. Evans per ora non ha una posizione precisa: il suo obiettivo è quello di sviluppare percorsi decisionali astratti che permettano ai costruttori di programmare in maniera consapevole le scelte che le vetture si troveranno a compiere. «Il problema non è solo di tipo algebrico: pensate a due scenari, dove in entrambi i casi si possano salvare lo stesso numero di vite, ma non le stesse persone», spiega Evans. Come sceglierà il software tra una persona anziana e un bambino? Tra un uomo e una donna?

 

«Trovare una risposta eticamente accettabile non è certo un'impresa facile, ma», continua Evans, «abbiamo l'obbligo morale di non lasciare la questione in sospeso.»

 

Arte, filosofia, curiosità: la (cinica) visione del mondo di Pawel Kuczynski. | Pawel Kuczynski

 

Dalla filosofia all'ingegneria. Il tema, per quanto complesso, può avere anche dei risvolti molto pratici: se non si troverà una soluzione moralmente ed eticamente condivisibile a questi e altri problemi simili, la risposta andrà cercata altrove, per esempio nella progettazione delle strade, che dovranno garantire una miglior separazione tra auto e pedoni rispetto a quella che esiste oggi.

 

Obiettivo dei filosofi non è quindi solo quello di trovare risposte, ma soprattutto di sollevare domande e dubbi su questioni che possono sembrare scontate. Per esempio, se l'auto fosse programmata per salvare la vita dei pedoni a discapito di quella degli occupanti, non potrebbe nascere una nuova forma di omicidio? Basterebbe piazzarsi intenzionalmente sulla traiettoria della vettura autonoma per mettere a rischio la vita di chi è a bordo.

 

Non solo vantaggi. Patrick Lin, docente di filosofia all'Università di San Luis Obispo (California) sta analizzando le questioni morali ed etiche da prospettive diverse: chi è responsabile per le scelte dell'auto e per le conseguenze di queste scelte? Il fatto che non sia più necessario guidare, può "sdoganare" uso e abuso di alcolici e stupefacenti su strada? Se la vettura autonoma ridurrà drasticamente il numero di incidenti e morti sulle strade... non ci sarà una enorme carenza di organi per i trapianti?

Secondo Lin, l'avvento delle vetture senza conducente avrà conseguenze che oggi non siamo in grado di prevedere. «Si sta ripendendo ciò che accadde con la corrente elettrica alla fine del XIX secolo», commenta: «si pensava potesse servire solo per sostituire le candele, e invece ha portato ai supercomputer, alla robotica, all'intelligenza artificiale...»

 

Prevedere gli effetti a lungo termine di una simile rivoluzione è davvero difficile, anche perché per adesso nessuno ancora considera eventuali ricadute negative. Per esempio, non si vede perché la vettura autonoma non debba permettere il suo utilizzo anche da parte di chi non guida (perché non sa farlo o è troppo giovane), aumentando così il numero di mezzi in circolazione e congestionando ancora di più le nostre strade.

 

 

16 Febbraio 2018 | Rebecca Mantovani