Algoritme kan de zelfrijdende auto wel aan moraal helpen

Onderzoekers tonen aan dat zelfrijdende auto’s binnenkort in staat kunnen zijn om ethische beslissingen te nemen zoals wij mensen dat doen.

Stel je rijdt in de stad en opeens steekt er een vrouw met een kinderwagen over. Je hebt twee opties: gewoon doorrijden en de vrouw en kinderwagen omver rijden. Of uitwijken. Maar dan bots je op een groepje kinderen dat op de stoep loopt. Wat doe je?

In de knoei
Aangenomen werd dat we ons bij dit soort ethische beslissingen laten leiden door de context van de situatie. En dat is een probleem als je wilt dat een zelfrijdende auto in dit soort situaties hetzelfde doet als een mens zou doen. Want een zelfrijdende auto laat zich niet leiden door een brein, maar door een algoritme. En het is praktisch onmogelijk om de context van een situatie in zo’n algoritme mee te nemen. En dus leek het er even op dat zelfrijdende auto’s tijdens ethische dilemma’s in de knoei zouden komen.

Nieuw onderzoek
Maar een nieuw onderzoek schetst een ander beeld. Het toont namelijk aan dat wij mensen op een iets andere – en veel gemakkelijker in een algoritme te beschrijven – manier met morele dilemma’s omgaan.

WIST JE DAT…

…een paar zelfrijdende auto’s al een einde kunnen maken aan ‘spookfiles’?

Experiment
De onderzoekers verzamelden een aantal proefpersonen. Met behulp van virtual reality werden de proefpersonen zogenaamd in een mistige voorstad neergezet, alwaar ze zich in de auto van A naar B moesten begeven. Onderweg kregen ze te maken met een ethisch dilemma. Ze konden doorrijden of uitwijken, maar zouden hoe dan ook slachtoffers maken (mensen of dieren) of schade veroorzaken. Vervolgens keken de onderzoekers met behulp van statistische modellen welke ‘regels’ mensen volgden, wanneer ze deze beslissingen namen. Uit het onderzoek blijkt dat proefpersonen zich tijdens het nemen van een beslissing niet zozeer lieten leiden door de context, maar door wat onderzoekers ‘value of life‘ noemen. Zo bleken mensen een hogere waarde toe te kennen aan het leven van een kind dan aan het leven van een volwassene. En werd een hond vaker gered dan een geit. En deze manier van beslissingen nemen, kan wel vrij eenvoudig door een algoritme worden beschreven, zo schrijven de onderzoekers.

Morele machines
Maar daarmee is het laatste woord over ethische zelfrijdende auto’s nog niet gezegd, zo benadrukt onderzoeker Peter König. “Nu we weten hoe we menselijke ethische beslissingen in machines moeten implementeren, staan we als samenleving voor een dubbel dilemma. Allereerst moeten we beslissen of morele waarden verwerkt moeten worden in de richtlijnen voor het gedrag van machines.” En als we ervoor kiezen om machines een moraal mee te geven, welke moraa wordt dat dan? “Moeten de machines dan handelen zoals mensen doen?”

Meer data
Het antwoord op die vraag lijkt misschien simpel. Maar je moet bedenken dat een machine soms meer informatie voorhanden heeft dan wij. Een voorbeeldje. Een zelfrijdende auto staat voor een onmogelijke keuze: een kind of een hond aanrijden. Wij handelen op basis van wat we zien en zullen er waarschijnlijk voor kiezen om de hond aan te rijden (omdat we meer waarde hechten aan het leven van een kind dan aan het leven van een hond). Maar een machine kan simuleren wat er gebeurt als hij A of B doet. Zo kan de zelfrijdende auto bijvoorbeeld in een split second berekenen dat de hond aanrijden resulteert in 90% kans op grote verwondingen bij de hond, terwijl het kind aanrijden, resulteert in 5% kans geringe verwondingen bij het kind. Willen we dan dat de auto handelt op basis van die data of een ethische beslissing neemt zoals wij mensen dat zouden doen?

Je ziet: het is nog niet zo heel eenvoudig. Toch moeten we nu reeds over dit soort vragen nadenken, zo benadrukken de onderzoekers. Want machines worden in rap tempo autonomer. En als we ze geen duidelijke regels meegeven, gaan ze straks buiten ons om beslissingen nemen. En dat is absoluut onwenselijk.

Bronmateriaal

Fout gevonden?

Voor jou geselecteerd