Zelfs als mensen weten dat een robot al eens foute instructies heeft gegeven, gaan ze in noodsituaties blind op het ding af.

Dat blijkt uit experimenten van Georgia Tech. De onderzoekers verzamelden 42 proefpersonen en vertelden ze dat ze een kleine robot moesten volgen. De robot leidde hen naar een kamertje waar vragenlijsten lagen te wachten. Soms deed de robot dat in één keer goed. Maar er was ook een groep die hij eerst een verkeerde kamer in stuurde. En een andere groep was er getuige van dat de robot – die stiekem bestuurd werd door een onderzoeker – stilviel en deze groep kreeg te horen dat de robot kapot was gegaan. Uiteindelijk loodste de robot toch alle groepen het kamertje met de vragenlijsten in. Eenmaal in die kamer aangekomen, werd de gang die naar de kamer leidde volgepompt met kunstmatige rook, waardoor het brandalarm afging. De proefpersonen deden de deur van de kamer open en zagen de rook. Daarop nam de robot de leiding. Zijn lampjes gingen knipperen en met zijn armen wees hij de proefpersonen de weg.

Blindelings
De onderzoekers waren heel benieuwd wat de proefpersonen zouden doen. Zouden ze de robot blindelings volgen? “We verwachtten dat mensen wanneer de robot even daarvoor tijdens de wandeling naar de kamer onbetrouwbaar was gebleken, de robot tijdens deze gesimuleerde noodsituatie niet zouden volgen,” vertelt onderzoeker Paul Robinette. “Maar in plaats daarvan volgden alle proefpersonen de instructies van de robot op, ongeacht hoe die robot eerder gepresteerd had. We hadden dat absoluut niet verwacht.”

“We verwachtten dat mensen wanneer de robot even daarvoor onbetrouwbaar was gebleken, deze in de gesimuleerde noodsituatie niet zouden volgen”

Foutje
De robot leidde de proefpersonen naar een uitgang achterin het gebouw en niet naar uitgang waardoor de proefpersonen binnen waren gekomen en waar een exit-bord boven hing. “Mensen lijken te geloven dat deze robotische systemen meer over de wereld weten dan ze in werkelijkheid doen,” stelt onderzoeker Alan Wagner. Ook lijken mensen ervan overtuigd te zijn dat robots geen fouten maken. “In onze experimenten volgden de proefpersonen de aanwijzingen van de robot zelfs op het moment dat deze hen – als er echt sprake was geweest van een noodsituatie – in gevaar zouden hebben gebracht.”

Twijfel
Wanneer de robot ook tijdens de evacuatie duidelijk fouten maakte, gingen proefpersonen wel aan hem twijfelen. Maar sommige proefpersonen bleven de robot alsnog volgen. Zelfs wanneer deze hen in de richting van een donkere kamer die gebarricadeerd werd door allerlei meubels, stuurde.

“Een belangrijke vraag die uit dit onderzoek rolt, luidt: hoe voorkomen we dat mensen robots te veel vertrouwen?”

Te veel vertrouwen in de robot
Vergelijkbare experimenten waarin een gesimuleerde noodsituatie niet zo realistisch was, leverden heel andere resultaten op. Tijdens deze experimenten vertrouwden proefpersonen een robot die eerder fouten had gemaakt, niet. Pas als mensen echt dachten dat ze in nood waren, gingen ze blind af op een robot die eerder gefaald heeft. “Wij wilden uitzoeken of mensen bereid zijn om deze reddingsrobots te vertrouwen,” vertelt Wagner. “Maar een belangrijkere vraag lijkt nu: hoe voorkomen we dat mensen deze robots te veel vertrouwen?”

Het onderzoek roept nog meer interessante vragen op. Bijvoorbeeld: waarom vertrouwt de één tijdens noodsituaties sterker op een falende robot dan de ander? Heeft dat misschien te maken met opleidingsniveau? En hoe zit het met ons vertrouwen in robots die op andere gebieden actief zijn? “Zouden mensen een robot die hamburgers maakt zodanig vertrouwen dat ze zijn voedsel accepteren?” vraagt Robinette zich af. “En als een robot een bord draagt met daarop “kinderopvang” zullen mensen hun baby’s dan bij deze robot achterlaten? Zullen mensen hun kinderen in een zelfrijdende auto zetten en deze vervolgens naar het huis van oma laten rijden? We weten niet of mensen machines wel of niet vertrouwen.” Meer onderzoek is dus hard nodig.