martedì 28 giugno 2016

COMPRERESTI UNA MACCHINA CHE SALVA I PEDONI E SACRIFICA LA TUA VITA ? IL DILEMMA DELL'AUTO SENZA CONDUCENTE

Risultati immagini per auto senza conducente

Veramente interessante, direi istruttivo, lo studio effettuato da tre ricercatori e poi comparso su SCIENCE.
Si parte dall'ingresso sul mercato automobilistico delle auto senza conducente ( una ex amica sono sicuro che sarà tra le primissime nell'acquisto : sempre stato il suo sogno !) , per arrivare al difficile quesito : come deve essere programmata l'auto in caso di situazioni estreme ? Più precisamente, quando si trova in una situazione, e purtroppo capitano, in cui si deve scegliere tra rischiare la vita altrui o quella delle persone a bordo.
Intervistate in astratto, le persone danno risposte di buon senso, puntando alla ottimizzazione delle vite da risparmiare : l'auto dovrà essere programmata per salvarne il più possibile, anche a costo di sacrificare il proprietario ( e i suoi cari, eventualmente) a bordo.
Ma al successivo quesito, vale a dire "comprereste un auto così programmata ?", la risposta è stata un massicciamente maggioritario, contraddittorio, prevedibilissimo NO.
A quel punto lo Stato padrone che dovrebbe fare ? Imporre l'acquisto di auto siffatte, che avrebbero il pregio di evitare, secondo gli studi in atto, fino al 90% degli incidenti (spessissimo dovuti a distrazione o malori del conducente umano; immaginate soltanto alla fine delle scelleratezze non solo degli ubriachi ma anche della miriade di stolte/i sempre alle prese col loro cellulare ! ) ?
Immagino che la gente che NON guida risponderebbe compatta di sì, ma sono la minoranza. Quindi ?
In realtà, scrive bene la giornalista, siamo alle solite : tutti bravi a patto che i sacrifici per il bene comune non ci tocchino troppo da vicino.
Comunque, sull'auto conducente i produttori ( "Oste com'è il vino ?" "BUONO !!") spargono ottimismo : i software di guida e di controllo saranno talmente sofisticati e perfezionati che ridurranno al minimo i rischi delle situazioni "estreme".
Però ci vorrà ancora un po' di tempo...




 Il dilemma (morale) dell’auto senza guida

di Anna Meldolesi

Test su cosa vorremmo che facesse l’algoritmo al volante:

«Incidente inevitabile, deve salvare voi a bordo o i pedoni?»

 Risultati immagini per auto senza conducente

«Ciao Car, andiamo al parco», dice la mamma sedendosi con il figlio in un veicolo automatico nuovo fiammante. La macchina si mette in moto e procede sicura, finché all’incrocio trova dei pedoni che attraversano con il rosso.
Le automobili driverless , senza conducente, non commettono gli errori degli umani al volante, non si distraggono e non hanno colpi di sonno. Si stima che potrebbero prevenire il 90% degli incidenti. Ma se il sinistro fosse inevitabile e la macchina fosse programmata per prendere decisioni morali, cosa dovrebbe scegliere l’algoritmo? Meglio sterzare e urtare la barriera sacrificando mamma e bambino, o proseguire investendo i passanti?

Tre ricercatori, un francese e due americani, hanno fatto questa domanda a un campione di quasi 2 mila persone, proponendo diversi scenari con un numero variabile di vittime e poi illustrando i risultati su Science . La maggior parte dei soggetti interpellati da Jean-François Bonnefon e colleghi (76%) ha risposto che la macchina dovrebbe comportarsi in modo utilitaristico, minimizzando le vite perdute. Certo la bilancia morale può oscillare un po’ se tra le persone a rischio immaginiamo una donna incinta o magari un superchirurgo che salva i suoi pazienti ogni giorno. Sono eventi improbabili, è vero, ma quando le auto self-driving saranno numerose, secondo gli autori dello studio, delle situazioni di questo tipo si verificheranno e allora costruttori, consumatori, istituzioni dovranno mettersi d’accordo su quale sia il male minore. Sulla carta sembra semplice: se serve a salvare più vite, è giusto che i veicoli siano pronti a sacrificare anche il proprietario.
Ma i nodi vengono al pettine quando alle persone si chiede: comprereste una macchina che si comporta così? La risposta è no.

Le auto morali sono il massimo finché sono gli altri a comprarle, per sé la gente ne vuole una che si auto-protegga, anche a costo di sacrificare gli altri. Pensateci un attimo, comprereste un’auto programmata per uccidervi in circostanze estreme?

Secondo i ricercatori gli aspetti psicologici saranno altrettanto importanti di quelli tecnologici per il successo dei veicoli senza pilota. Se le preferenze dei consumatori spingessero il mercato verso algoritmi egoistici, gli stati dovrebbero imporre degli algoritmi morali? Forse sì, peccato che molte persone a questo punto sceglierebbero di non comprare un’auto driverless .
E così ci troveremmo a rinunciare a una tecnologia che potrebbe evitare centinaia di migliaia di decessi nel mondo. Il meccanismo è lo stesso per cui tutti consumiamo e inquiniamo ma pochi vogliono centrali o discariche nelle vicinanze di casa. Lo slogan «not in my backyard» (non nel mio cortile) in questo caso diventa «not in my backseat» (non sul mio sedile). L’ecologo Garrett Hardin nel 1968 ha descritto il fenomeno che porta i singoli a sovrasfruttare le risorse naturali, sacrificando il bene collettivo per interessi personali effimeri. È «la tragedia dei common» e somiglia a ciò che potrebbe accadere con le auto senza pilota. Il bene comune che rischiamo di perdere è la sicurezza stradale di tutti.

Per risolvere il dilemma posto da Science comunque c’è tempo. Le auto a guida assistita che vengono testate oggi non prendono decisioni morali. E per Michele Crisci, presidente di Volvo Italia, non dovranno prenderle nemmeno le auto driverless del futuro: «Già ora si può monitorare la posizione di decine di soggetti intorno al veicolo. Quando i sistemi saranno perfezionati si potrà gestire tutto con tempi di reazioni infinitesimali».

Nessun commento:

Posta un commento