Kan een robot het verschil tussen goed en kwaad leren?

robot

Is het mogelijk om een robot te ontwikkelen die het verschil weet tussen goed en kwaad en dus zijn tanden kan zetten in elk moreel dilemma waar deze mee te maken krijgt? Wetenschappers gaan het uitzoeken!

Morele dilemma’s: we hebben er dagelijks mee te maken. En wanneer robots ons op grote schaal met onze dagelijkse bezigheden gaan helpen, zullen ook zij vroeg of laat voor morele keuzes komen te staan. Bijvoorbeeld wanneer ze in het leger aan de slag gaan. Stel: een robot krijgt opdracht om medicijnen naar een nabijgelegen ziekenhuis te brengen. Onderweg stuit hij op een gewonde soldaat. Moet hij stoppen en helpen of doorgaan en de medicijnen afleveren? En als hij beslist om te stoppen, komt hij wellicht weer voor andere morele keuzes te staan. Bijvoorbeeld als hij ‘ziet’ dat de soldaat hevig bloedt en dat de bloeding alleen gestopt kan worden als hij op de wond drukt, iets wat enorm veel pijn zal veroorzaken. Mag hij de soldaat die pijn aandoen? Ook al is het goed voor de soldaat?

Lastig
Voor ons mensen zijn morele dilemma’s al lastig. Voor een robot zal dat niet anders zijn. “Morele competentie is ruwweg te definiëren als de vaardigheid om te leren en denken over, reageren op en praten over de wetten en sociale conventies waarover mensen het doorgaans eens zijn,” stelt onderzoeker Matthias Scheutz. “De vraag is of machines – of andere kunstmatige systemen – deze vaardigheden kunnen nabootsen.”

WIST U DAT…

Inbouwen
En dat is exact wat Scheutz en zijn collega’s nu willen gaan uitzoeken. Ze beginnen met het bestuderen van de morele competentie van mensen. Vervolgens zal het een ware uitdaging blijken om die morele competentie in robots in te bouwen. “Ons lab zal unieke algoritmes en mechanismen ontwikkelen en integreren in de bestaande architectuur voor autonome robots. Deze aangepast architectuur zal flexibel genoeg zijn om de robot in staat te stellen de geplande acties op basis van moreel redeneren te herzien.” Zodra robots met die systemen zijn uitgerust, volgen experimenten waarbij robots tijdens interacties met mensen met morele dilemma’s te maken krijgen. Dan zal moeten blijken of robots in staat zijn om een voor mensen acceptabele keuze te maken en uit te leggen waarom ze die keuze maakten.

De onderzoekers staan om meerdere redenen voor een zware taak. Zo wordt hun onderzoek bemoeilijkt door het feit dat we nog altijd niet weten welke mechanismen aan de moraal van de mens ten grondslag liggen. Daarnaast is het onmogelijk om de robot op alle morele dilemma’s voor te bereiden. “We hebben het hier over robots die ontworpen zijn om autonoom te zijn: dus het belangrijkste doel van hun bestaan is dat je ze niet hoeft te vertellen wat ze moeten doen,” vertelt onderzoeker Selmer Bringsjord. “Wanneer een onvoorziene situatie opdoemt, moet de robot in staat zijn om daarover na te denken, omdat het onmogelijk is om een set regels te creëren die met elk mogelijk scenario rekening houdt.”

Bronmateriaal

"Teaching Robots Right from Wrong" - Tufts.edu
De foto bovenaan dit artikel is gemaakt door Sasan (via Freeimages.com).

Fout gevonden?

Voor jou geselecteerd