Masinile care se conduc singure nu pun numai probleme tehnologice si de reglementare, ci si intrebari etice, sustine un studiu american.
Daca un astfel de vehicul autonom s-ar afla in situatia in care ar trebui sa aleaga intre a lovi un om sau o masina, ce ar face?
Sau daca una dintre aceste variante ar fi inevitabila, ar lovi mai degraba un alt autoturism plin de pasageri sau s-ar izbi de un perete, riscand sa ii accidenteze pe ocupantii sai?
Aceste intrebari sunt abordate de studiul "Vehiculele autonome au nevoie de etica experimentala", discutat in revista americana MIT Technology Review, arata Techinsider.io.
"Unele situatii vor obliga vehiculele autonome sa aleaga cel mai mic rau. Spre exemplu, sa dea peste un pieton pe drum sau peste un trecator pe trotuar. Sau sa aleaga daca sa loveasca un grup de pietoni sau sa sacrifice propriul pasager izbindu-se de un zid. Este o provocare formidabila sa definesti algoritmii care vor ghida vehiculele autonome in astfel de dileme ...citeste mai departe despre "Tehnologia viitorului si morala omului: Ce va face masina care se conduce singura in caz de accident?" pe Ziare.com