Le auto a guida autonoma dovranno imparare a scegliere il male minore

L’etica è cruciale per lo sviluppo delle auto senza conducente. Un sito ci fa immedesimare in un’auto a guida autonoma che deve scegliere quali vite sacrificare.

Decidete voi chi vive e chi muore. No, non è l’ennesimo film violento e dalla trama scontata. Si tratta, piuttosto, del sito Moral machine creato dal Mit (Massachusetts institute of technology) per invitare gli utenti a scegliere il “male minore” in diverse situazioni, immedesimandosi nell’intelligenza artificiale che gestisce un’auto a guida autonoma. In seguito alla rottura dei freni, ad esempio, è meglio reagire all’imprevisto salvando i passeggeri e investendo i pedoni oppure sacrificando gli occupanti dell’abitacolo a favore dei passanti? E ancora, è legittimo inserire preferenze per età, sesso e correttezza – distinguendo tra quanti rispettano il codice della strada e quanti lo violano – nell’insieme degli input che il computer è chiamato ad analizzare per scegliere chi proteggere?

MoralMachine
Alcune scelte etiche proposte dal portale Moral Machine

Il nodo delle decisioni morali

Prima di arrivare sul mercato, le auto autonome dovranno imparare anche a uccidere. Se per un guidatore umano, dinanzi a un bambino che attraversa improvvisamente la strada, è scontato tentare qualsiasi manovra per evitare l’investimento, pur rischiando la propria incolumità, non altrettanto si può dire per una macchina che, in quanto tale, effettua calcoli di mera probabilità. Se i dati in possesso della vettura dovessero dimostrare che evitare l’impatto è impossibile, oppure che la manovra per salvare il bimbo può portare al sacrificio di altre vite incolpevoli, quale decisione prenderà l’algoritmo che comanda il veicolo? Per quale soluzione propenderà il costruttore che realizza il software di gestione del mezzo? Il portale ideato dal MIT si propone quale base di discussione globale, tentando di fornire una via d’uscita standardizzata nei vari frangenti.

 

Moral Machine
L’auto a guida autonoma di Google in azione

Una coscienza collettiva per le auto a guida autonoma

Attraverso il portale Moral Machine è possibile commentare i vari scenari proposti, motivando le ragioni della propria scelta e discutendo con gli altri utenti. L’obiettivo è creare una “coscienza collettiva” in base alla quale i costruttori di vetture senza conducente possano affrontare lo sviluppo dei software di guida autonoma così che risultino non solo efficaci, ma anche moralmente accettabili. La speranza, ovviamente, è che le auto robot non siano mai chiamate a prendere decisioni drastiche, ma trattandosi pur sempre di mezzi meccanici non è escluso che possano incappare in rotture e imprevisti.

Restano da risolvere problemi di natura etica e legislativa

La questione delle decisioni “morali” legate alle vetture a guida autonoma è quanto mai attuale e scottante. Il costruttore tedesco Bmw ha da tempo sollevato la questione, consapevole che, sebbene la tecnologia driverless sia quasi pronta, restano da risolvere innumerevoli problemi e interrogativi di ordine legislativo, assicurativo ed etico. In caso di necessità, un’auto senza conducente dovrebbe salvaguardare la vita dei passeggeri, proteggere chi si è dimostrato più ligio al codice della strada o, addirittura, dare la precedenza a bambini, donne incinte e altre categorie “sensibili”? Il dibattito, a livello europeo e mondiale, è aperto.

Licenza Creative Commons
Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.

Articoli correlati