Milano, 24 giu. (AdnKronos Salute) - - Passeggeri contro pedoni, adulti contro bambini, anziani contro giovani, delinquenti contro vecchiette sbadate che attraversano la strada con il rosso. E persino gatti contro cani. E' il dilemma sociale delle 'Google car', le auto senza conducente: chi salvare in caso di incidente? A sollevare il problema è un team internazionale di ricercatori che sulla rivista 'Science' ha prospettato una serie di scenari in cui le regole di sicurezza secondo cui vengono programmati i veicoli autonomi rischiano di entrare in conflitto fra loro, con risvolti etici non da poco. "Supponiamo che un auto senza conducente debba scegliere tra colpire un gruppo di pedoni o deviare e andare a sbattere danneggiando i propri passeggeri. Cosa dovrebbe fare?", si chiedono gli esperti. E soprattutto, quale sarebbe la decisione giusta secondo una persona in carne e ossa?
Per scoprirlo gli autori dello studio - Jean-Francois Bonnefon della Toulouse School of Economics (Francia), Azim Shariff dell'University of Oregon e Iyad Rahwan del Mit Media Lab (Usa) - hanno condotto 6 sondaggi online tra giugno e novembre 2015 su cittadini residenti negli Stati Uniti, chiedendo loro come vorrebbero che si comportassero i veicoli autonomi. I risultati mostrano come si scateni un conflitto etico tra il bene personale e quello pubblico. Le persone in genere hanno un approccio utilitaristico all'etica della sicurezza, fanno notare gli scienziati.
Se da un lato preferirebbero che il veicolo autonomo riducesse al minimo le perdite in situazioni di estremo pericolo - e ciò significherebbe, per esempio, andare fuori strada per evitare una folla di 10 pedoni, sacrificando un passeggero (opzione scelta dal 76%) - allo stesso tempo ammettono che non salirebbero mai a bordo di una vettura programmata in questo modo. In sostanza, spiega Rahwan, "la maggior parte delle persone vuole vivere in un mondo in cui i veicoli minimizzano le perdite, ma tutti vogliono che la propria auto protegga loro stessi a tutti i costi". Sarebbe "una tragedia", perché se prevalesse sempre il proprio interesse personale "le auto non minimizzerebbero le perdite". Non solo: "Per il momento non sembra esistere un modo semplice di progettare algoritmi che permettano di conciliare i valori morali e personali di auto-interesse", aggiunge l'esperto.
L'intento è quello di offrire uno spunto di riflessione e i ricercatori precisano che il rendimento complessivo dei veicoli autonomi su vasta scala è ancora da determinare, e riconoscono che i sondaggi di opinione sul tema sono in una fase molto precoce e quindi i risultati potrebbero non persistere con l'evoluzione del panorama delle auto senza conducente.
Tuttavia il dilemma sociale di macchine simili "è una sfida che dovrebbe essere nei pensieri delle case automobilistiche e delle autorità normative", scrivono gli autori.
Il problema che viene sollevato non è irrealistico. Può succedere che un veicolo autonomo provochi un incidente - basti pensare che sulle strade di Mountain View, in California, si è verificato un sinistro in cui una Google car era diretta responsabile - e può succedere che debba scegliere come minimizzare i danni.
I dati mostrano la difficoltà di orientare e programmare le decisioni delle automobili autonome. E questo passaggio dovrà essere affrontato al meglio prima che queste vetture diventino una merce globale, avvertono gli esperti. Il potenziale di queste vetture è di portare benefici, eliminando fino al 90% degli incidenti stradali, ma non tutti i sinistri saranno evitati - riflettono gli autori - e alcuni scenari richiederanno scelte etiche difficili. Per rendere l'idea, è stato creato un sito interattivo che consente alle persone di esplorare e creare varie situazioni. "Solo determinare come costruire macchine autonome etiche "è una delle sfide più spinose nel campo dell'intelligenza artificiale", concludono gli scienziati evidenziando come il campo dell'etica sperimentale sia in grado di fornire intuizioni chiave in questa direzione.