Successivo

Editoriale | Magazine

L’etica delle auto a guida autonoma

Eugenio Moschini | 1 Agosto 2016

Editoriale

Le self-driving car, o auto a guida autonoma, stanno facendo molta strada (in tutti i sensi), ma è ancora lontano […]

Le self-driving car, o auto a guida autonoma, stanno facendo molta strada (in tutti i sensi), ma è ancora lontano il giorno in cui i modelli saranno completamente autonomi, senza la necessità  di alcun intervento umano. Anche se non sono ancora realtà , si sta delineando all’orizzonte un problema all’apparenza banale, ma che è in verità  alquanto complesso: quale “etica” dovrebbe guidare le self-driving car? Facciamo un esempio, siete al volante della vostra “normale” auto, procedendo nel pieno rispetto delle norme stradali. All’improvviso un pedone vi sbuca davanti e la distanza è talmente poca che è impossibile frenare in tempo per evitare l’impatto. Avete solo due soluzioni, purtroppo entrambe mortali: o restate sulla vostra corsia (e condannate a morte il pedone) oppure sterzate, andando a sbattere contro le barriere protettive che costeggiano la strada (ma in questo caso morite voi). In questo ipotetico scenario non avete tempo per pensare ed elaborare una scelta consapevole, ma solo frazioni di secondi: il vostro comportamento è dettato da una vostra reazione istintiva.

Pensate adesso alla stessa situazione, ma “al volante” c’è un sistema di guida autonomo. In quel brevissimo spazio di tempo l’intelligenza artificiale non ha una reazione “instintiva”, ma riesce a prendere una decisione; in pratica l’auto può scegliere cosa fare. E in questo scenario, quale sarebbe la scelta “giusta”? L’auto dovrebbe proteggere chi è al suo interno o salvare la vita del pedone? Sembra scontato pensare che debba salvaguardare a tutti i costi il passeggero, ma cosa succederebbe se i pedoni fossero più di uno? Converrebbe che “sacrificasse” la vita di uno pur di salvarne molti? E ne varrebbe la pena anche se in realtà  la “colpa” dell’incidente fosse dei pedoni? Questo è solo un banale esempio, le variabili in gioco potrebbero essere migliaia, con scenari reali che potrebbero essere inimmaginabili. Vi invitiamo a visitare la pagina del MIT https://moralmachine.mit.edu per capire che, mai come in questo caso, non può esistere una decisione “giusta”. In un futuro prossimo arriverà  però il momento di “decidere” quali saranno gli algoritmi che guideranno (letteralmente) queste macchine. E resterà  da capire chi dovrà  scegliere (i programmatori? i produttori? un ente “sovrano”?) e chi sarà  “responsabile” di queste scelte (i proprietari? le “auto”?).

Ma c’è forse da farsi prima una domanda più concreta, che riguarda tutti noi: voi siete pronti a salire su una macchina che potrebbe decidere che il minore dei mali è la vostra morte?

Eugenio Moschini