I principali marchi automobilistici sono impegnati da anni nello sviluppo di self-driving cars, i tanto attesi quanto discussi veicoli a guida autonoma. Una tecnologia robotica che corre parallelamente all’evoluzione di propulsori sempre più eco-friendly e di sistemi di assistenza alla guida che aiutino, confortino, informino, intrattengano il guidatore e i passeggeri durante il viaggio. Ma mentre i sistemi di infotainment e la connettività a banda larga sembrano correre sicuri e indisturbati, avvicinando ad oggi il domani dell’automotive, la guida autonoma “dipende” da un dilemma etico che alimenta i dubbi, accende dibattiti e, soprattutto ne ritarda la messa su strada. Le auto a guida autonoma, in quanto robotiche, sono progettate per evitare l’errore umano ma, di fronte ad un incidente inevitabile, come devono comportarsi? Il loro algoritmo deve anteporre l’incolumità dei propri passeggeri rispetto a quella dei pedoni e degli altri veicoli o deve elaborare soluzioni che ottimizzino i danni salvando più vite possibili, anche a discapito di quelle trasportate al loro interno? In attesa di una regolamentazione in materia, ildilemma etico abbraccia anche un secondo aspetto: quella della responsabilità in caso di incidente. Su chi deve ricadere? Per i consumatori americani la responsabilità di eventuali azioni dannose di un’auto a guida autonoma è da imputare ai costruttori e agli eventuali gestori di servizi (e quindi nel caso di taxi o di altri mezzi pubblici a guida autonoma pagano sia i marchi che le istituzioni?). Lo Stato del Michigan invece equipara i sistemi elettronici al guidatore. Tra indecisioni, silenzi ingiustificati, no comment e prese di posizione discutibili, il dilemma etico (con le sue mille conseguenze legali) sembra correre più spedito e veloce della stessa tecnologia che lo riguarda.