Er zal een dag komen waarbij je auto je zonder dat je iets hoeft te doen je van A naar B brengt.

Daarnaast zal het nog iets anders doen en dat is besluiten of jij zult leven of sterven.




Het gaat hier niet over een science fiction roman, maar over de zeer nabije toekomst. Over zelfrijdende auto’s en de mogelijkheid dat deze zullen worden geprogrammeerd om jou te doden als dat nodig mocht blijken.

Zodanig dat ze in staat zijn om gevaarlijke situaties te evalueren en daarop te reageren. Dat houdt in dat de auto kan besluiten om jou op te offeren om anderen te redden.

Zelfrijdende auto’s zullen over enkele jaren voor het grote publiek beschikbaar zijn. Google is al volop aan het lobbyen om ze op een legale manier de weg op te krijgen. In Amerika zijn er al een aantal staten zoals bijvoorbeeld Nevada, Californië, Florida, Michigan en Washington waar ze op de openbare weg getest mogen worden.

Ongeveer twee weken geleden gaf Google de details vrij van het ongeluk waarbij de zelfrijdende auto’s van het bedrijf betrokken waren. In totaal zijn ze bij zo’n twaalf ongelukken betrokken geweest.

“In de zes jaar dat we bezig zijn met ons project zijn we betrokken geweest bij twaalf kleine ongelukken. We hebben in totaal bijna drie miljoen kilometer afgelegd in een combinatie van geautomatiseerd en zelfstandig rijden. Niet één keer was de zelfrijdende auto de schuldige aan het ongeluk”, aldus Google.

We weten natuurlijk pas hoe veilig dit soort auto’s zijn als ze op grote schaal gebruikt zullen gaan worden. Dan is er een ander punt om in overweging te nemen: Hoe zullen deze voertuigen omgaan met dreigende ongelukken?

De auto’s van Google kunnen aardig omgaan met de meeste voor de hand liggende gevaren, maar hoe gaat dat als ze in een hopeloze situatie terechtkomen? Momenten waarbij ze moeten kiezen tussen het op de baan van een tegenligger terechtkomen of het direct tegen een reling, muur of gebouw botsen?

De computers zullen snel genoeg zijn om die beslissing in een fractie van een seconde te maken, maar moeten ze dat ook doen?

Ze zouden tijd hebben om de auto’s voor hen te scannen en diegene te identificeren die de meeste kans heeft om bijvoorbeeld een botsing te overleven of degene met de meeste mensen erin. Moeten die auto’s zodanig worden geprogrammeerd dat ze een besluit nemen dat het beste is voor hun eigenaar? Of een waarbij de minste schade ontstaat, zelfs als dat zou betekenen om frontaal tegen een muur te knallen om een naderende schoolbus met kinderen te ontwijken. Wie gaat dat bepalen?

Daar wordt op dit moment door verschillende mensen driftig over gediscussiëerd en er zijn eigenlijk twee filosofieën op basis waarvan je dit kunt benaderen.

De eerste is utilitarisme (van Latijn utilitas: nut, ook wel: utilisme). Een ethische stroming die de morele waarde van een handeling afmeet aan de bijdrage die deze handeling levert aan het algemeen nut, waarbij onder algemeen nut het welzijn en geluk van alle mensen wordt verstaan.

Binnen deze filosofie zal de auto inderdaad besluiten om tegen de muur te knallen om de schoolkinderen te redden.

De tweede filosofie is deontologie ("plichtenleer", vanuit het Grieks, deon, “plicht,” en logos, “rede”) en is een ethische stroming die uitgaat van absolute gedragsregels, vaak, maar niet altijd, gesteld als norm. Dit houdt in dat moord altijd moord is. Ook al zal er maar één enkel iemand door de auto worden vermoord om twintig anderen te redden dan nog blijft het moord en is het niet toegestaan.

Wat de uiteindelijke uitkomst zal zijn is op dit moment niet duidelijk, maar dat er een gerede kans is dat je in de nabije toekomst door je auto gedood kunt worden, zoveel is zeker.

Bron:

Activist Post
Bezoek ook eens gezondheidswebwinkel Orjana.nl