Rijdt jouw smart car je straks tegen een boom om 10 voetgangers te redden?

Met de technologische vooruitgang krijgen we ook te maken met fascinerende ethische dilemma’s. We moeten apparaten een moreel kompas geven voor alle mogelijke situaties, al zijn die niet altijd eenduidig. Bijvoorbeeld: Mogen huisrobots alcohol schenken aan de tiener in huis en wat moet de robot doen als de tiener zelf een biertje pakt? Of: Wat moet een zelfrijdende auto doen in het geval van een onvermijdelijk ongeval?

Stel, je rijdt in je smart car en door een ongelukkige samenloop van omstandigheden rijdt je auto recht op een groep voetgangers af. De enige manier om hun dood nog te vermijden is het stuur omgooien en tegen een boom knallen. Dat overleef je niet. Welke keuze moet de auto maken, oftewel, hoe moet de auto geprogrammeerd worden?

Als de auto-industrie voor het principe ‘hoe minder slachtoffers, hoe beter’ gaat, zullen ze de auto’s zo programmeren dat de eigenaar van de auto kan worden opgeofferd. Mensen zullen misschien niet in drommen naar de dealer togen om zo’n destructieve wagen aan te schaffen. En daar zit de auto-industrie vast niet op te wachten.

De Toulouse School of Economics deed alvast onderzoek. De meeste mensen kozen in voorgelegde dilemma’s ook voor ‘het laagste aantal slachtoffers’. Ze waren wel enigszins huiverig voor het wettelijk vastleggen van het recht van een smart car om ‘te doden’. Bovendien was een slimme auto nog een ver van hun bed-show, waardoor hun afweging een hypothetische was, iets voor in de toekomst, voor het algemeen belang, waardoor eigenbelang (niet tegen een boom knallen) misschien al te makkelijk opzij werd geschoven.

Kortom, een moreel doolhof, en dan zijn de moeilijkste dilemma’s nog niet eens genoemd. Deze bijvoorbeeld: Moet een auto anders beslissen als er kinderen aan boord zijn, die hun hele leven nog voor zich hebben, terwijl de voetgangers bejaarden zijn? Ontwijk je een motorfiets door tegen een muur te botsen, in de redenering dat de autobestuurder meer kans heeft te overleven dan de motorrijder? Nee, deze zijn niet mals, en we zijn er nog niet uit.

 

 

 

 

Bron(nen):   De Morgen      

5 Reacties Doe mee met de discussie →


  1. Blargh

    Hey M@roesj, lees eens een boek

    http://www.auburn.edu/~vestmon/robotics.html

    • AT

      Hey Blargh, lees het eens goed!

      #1 is nu net het punt waar het om gaat; als die wet geldt, dan zou de robot een ‘keuze’ moeten maken tussen 1 of 10 slachtoffers.

      #2 kan betekenen dat de auto op een boom afstuurt omdat de bestuurder niet reageert op de voetgangers.

      Het dilemma waar dit artikel over gaat stelt de wetten van Asimov ter discussie.

      (in antwoord op Blargh)
      • Blargh

        Die staan niet ter discussie. Of zou jij de voetgangers neermaaien?
        Uiteraard onzin want een e-car heeft een (radar/infra) zicht op de weg waardoor hij veilig kan stoppen in (bijna)elke situatie.

        (in antwoord op AT)
      • Oh_Oh_SarCastro

        En wat nu als die ene slachtoffer Koning Willem is versus 10 “onrendabelen”?

        (in antwoord op AT)
  2. Oh_Oh_SarCastro

    Ik durf te wedden dat deze “prime directive” bij duurdere auto’s uit is te schakelen, natuurlijk tegen een extra premie bij de dealer.

Reacties niet toegestaan