Perché le self-driving cars devono essere programmate a uccidere?

Machine Learning tecnologie

Oggi le vetture con la funzione di “autoguida” sono già molto diffuse, non ci stupiamo più del cruise control, del parcheggio automatico o delle macchine che tornano in garage da sole mentre il loro proprietario sale a casa.

Il prossimo passo dovrebbe essere la guida completamente autonoma eseguita dal computer. I prototipi di tali macchine esistono già e vengono sviluppati dalle grandi aziende automobilistiche. Una volta attivata la queste vetture vengono guidate dal software mediante l’utilizzo dei sensori esterni senza la necessità dell’intervento umano.

Prima che lo si possa vedere per strada nella vita reale, i fabbricanti d’automobili devono risolvere alcuni aspetti legali che riguardano i casi di incidenti stradali. 

Bisogna stabilire chi si prenderà la responsabilità dell’accaduto nelle varie situazioni: il proprietario della vettura, l’assicurazione o la casa automobilistica. Il dilemma più grande che stanno affrontando gli sviluppatori deriva dal fatto che a volte è impossibile evitare lo scontro tra automobili e pedoni. Il problema è come deve comportarsi la macchina in tali casi, se deve salvare la vita dei passeggeri a tutti i costi o salvare i pedoni che sono in pericolo.

Ethical carsJean Francois Bonnefon, un professore della scuola di economia Toulouse in Francia, ha eseguito una ricerca con la collaborazione di una grande impresa i cui dipendenti dovevano dare le loro preferenze nelle varie situazioni ipotetiche che sono illustrate nell’immagine. Si presume che un veicolo autoguidato va lungo la strada e all’improvviso trova un gruppo di 10 persone davanti. La macchina non riesce a fermarsi in tempo e ha due possibilità: andare avanti investendo le persone o evitarle sbattendo contro il muro e ferendo i passeggeri al suo interno. I risultati della ricerca dimostrano che le persone preferiscono il comportamento della macchina che porti al numero minimo delle vittime e cioè la seconda opzione. Però questo vale solo finché non si trovano loro stessi dentro l’autovettura. Le persone intervistate desiderano quindi che gli altri usino automobili self-driving mentre personalmente preferiscono guidare manualmente e avere la possibilità di decidere nelle situazioni di emergenza. Tale risultato presenta un problema per i produttori di automobili automatiche: non ne favorisce la vendita, in quanto nessuno vorrà comprare una macchina programmata a ferire i passeggeri in determinate circostanze.

Tra i vari fattori che contribuiscono allo sviluppo dell’algoritmo devono essere prese in considerazione caratteristiche come l’età delle persone sia al bordo che per strada, la quantità dei passeggeri e dei pedoni, il sesso, ecc. Secondo gli sviluppatori alcune informazioni potranno essere recuperate dai cellulari delle persone tramite i loro account social. Evidentemente questi problemi dovranno essere ben analizzati e risolti per poter creare un algoritmo etico che prenderà in considerazione il fattore umano nel miglior modo visto che a breve termine milioni di veicoli “self-driving” saranno immessi sul mercato.  

La tecnologia ragiona scegliendo il male minore, noi siamo pronti per questo?

 

La fonte: http://www.technologyreview.com/

Il sito utilizza solo cookie tecnici e di analisi per il corretto funzionamento e vengono utilizzati cookie di terze parti. A seguito della normativa UE siamo obbligati a chiedere il vostro consenso. Si prega di accettare i cookies per il caricamento delle informazioni, proprio come qualsiasi altro sito su Internet. Utilizzando il nostro sito web si accetta la nostra Privacy Policy e Termini di servizio. Per saperne di più sui cookie che utilizziamo, vedere la pagina Privacy