Meimei en Alice 2013-03-06 11.11.40

Sociaal intelligente robots: er wordt momenteel hard aan gewerkt voor wat extra helpende handjes in de zorg. Handig bij de flinke toename van zorg door de vergrijzing. Nu kunt u denken: ‘Maar zo’n karakterloos ding kan toch niet met echte mensen omgaan?’ Nou, de Caredroid heeft hier een perfect karakter voor.

De Caredroid gedraagt zich sociaal-emotioneel menselijk en kan zelfs mensen met autisme juist sociaal vaardiger maken. Het enige wat hij nog mistte voor hij de wijde wereld met echte mensen in mag, is moreel besef waarmee hij de juiste afwegingen kan maken.

Morele keus
Misschien kent u dit ethische vraagstuk wel: Iemand staat op een brug en heeft de macht om een treinwissel om te zetten waardoor hij bepaalt dat de trein de ene kant op gaat en één persoon overrijdt in plaats van de vijf personen aan de andere kant. Ieder mens kan deze morele beslissing maken en kiest over het algemeen (ongeveer 80 procent) het leven van vijf mensen in plaats van één. Maar wat als diegene iemand van de brug moet duwen om die vijf mensen die de trein anders overrijdt te redden? Dilemma! 80 procent van de mensen kan dit gewoon niet en dat is een menselijke reactie. Gevolg is wel dat er vijf mensen overlijden in plaats van één. Waarom u het niet kunt? Die ene persoon staat letterlijk en figuurlijk dichterbij u: u voelt zich hierdoor meer betrokken bij hem of haar. Wanneer u deze van de brug duwt, voelt u zich hier meer verantwoordelijk voor dan wanneer u kiest voor het laten gebeuren van het treinongeval. Een robot zou koud kiezen voor het duwen van die ene persoon. In het geval van dit verhaal (Foodbridge-dilemma) is dat misschien wel ‘goed’, maar de Caredroid is zo gemaakt dat hij net zoals een mens kan kiezen voor die persoon die dichterbij staat. “Ze kan morele beslissingen maken op dezelfde manier zoals een mens die maakt,” vertelt Matthijs Pontier, die de robots eerder al emotioneel intelligent wist te maken.

Relatie patiënt
Met alleen emotionele intelligentie kan een robot geen morele beslissingen nemen zoals die in het Footbridge-dilemma. De invloed van rationele ethiek is wel erg belangrijk wanneer robots communiceren met mensen in een context waarbij morele relaties en beslissingen een rol spelen. En dat is precies de context waarbinnen de Caredroids Alice, Meimei en Darwin straks moeten functioneren in de zorg.

Robot Alice. Foto: Matthijs Pontier.

Robot Alice. Foto: Matthijs Pontier.

Menselijk
Maar hoe is een ding, een apparaat zonder hersenen, vlees en bloed, menselijk en moreel te maken? Door de mogelijkheid tot rationeel morele beredenering in te bouwen in de emotionele intelligentie die de robots al hadden. Hiervoor gebruikten Pontier en zijn collega’s modellen uit de emotie- en mediapsychologie. Het model dat als basis diende voor het model van de Caredroid verklaart hoe mensen virtuele karakters ervaren. Met een virtueel karakter tegenover u maakt u een inschatting van dat karakter. Is dit karakter bijvoorbeeld goed of slecht, mooi of lelijk en lijkt het op mij? “Deze inschatting bepaalt de gevoelens van betrokkenheid versus distantie,” legt Pontier uit. Het model, en dus de robot, berekent met het beeld wat hij van zichzelf heeft het verschil en de overeenkomsten met de ander. “We kunnen ook inprogrammeren dat een robot dezelfde dingen leuk vindt als de andere persoon zodat ze meer overeenkomsten hebben en de robot meer betrokkenheid ‘voelt’,” vertelt de onderzoeker.

Emotieregulatie
Beslissingen neemt een robot om zijn doel(en) te bereiken: bijvoorbeeld zorgen dat de patiënt op tijd zijn medicatie neemt. Deze taak is als doel in zijn ‘hersenen’ gepland. Om de doelen te bereiken, heeft de Caredroid de benodigde emoties gekregen. Dit kunnen positieve en negatieve emoties zijn, allen ter motivatie voor het bereiken van dat doel. “Als iets de Caredroid in de weg staat om zijn doelen te bereiken, zou ze een beetje ontevreden kunnen worden.” De robot is niet gevaarlijk voor de mens en zal niet gaat katten of schreeuwen om zijn ‘zin’ door te drammen, maar hij zal het wel duidelijk laten merken als hij ontevreden is. “De robots hebben verschillende emoties die allemaal gelinkt zijn aan het behalen van het doel: het verzorgen van de mens. Emoties zijn menselijk en zorgen ervoor dat een robot niet koud reageert met: ‘u moet het medicijn nu innemen omdat het daar nu tijd voor is’,” vertelt de ontwerper van het morele beslismodel. “Zij toont begrip voor waarom een oudere zijn medicijnen niet in wil nemen en legt rustig uit waarom het beter is om het wel te doen.” Eén van de belangrijke karaktereigenschappen van de Caredroid is dus geduld. Zij zal zich niet gaan ergeren, maar hoogstens haar ontevredenheid op een nette manier uiten. “Iets wat wel nodig is voor virtuele coaching,” benadrukt Pontier. Een mens moet namelijk op een bepaalde manier gemotiveerd worden. Doordraven in het behalen van doelen is dus niet aan de orde. De robots zijn zo ingesteld dat ze zich gelijkwaardig voelen aan de patiënt. “Ze zullen bij conflicterende doelen altijd een afweging maken, maar een patiënt nooit fysiek of emotioneel schaden. Ook al staat hij hun doel in de weg.” Het eeuwige geduld, dat misschien wel een beetje onmenselijk is, speelt hier een grote rol in.

Gezicht

Niet alle robots in de zorg zijn fysieke robots. Soms is een robot als poppetje op een scherm van tablet of computer voldoende voor de benodigde hulp. Hierbij kunt u denken aan een herinnering voor medicatie. Deze heeft net zoals een fysieke robot sociaal emotionele intelligentie en morele beredenering door dezelfde robotbrein-software. En kan dus communiceren met de patiënt met begrip en uitleg. Voor andere zorg is wel een fysieke robot nodig. Deze heeft een menselijk gezicht – dat praat gemakkelijker dan een robot die totaal geen menselijkheid uitstraalt. Het gezicht is van siliconen en kan gezichtsuitdrukkingen weergeven.

Fouten maken is menselijk
Het klinkt ideaal: Een geduldige morele robot die zich gelijkwaardig voelt aan de mens, maar de zorg voor de mens toch als zijn levensdoel ervaart. Hij is intelligent én emotioneel betrokken en komt hierdoor menselijk over. Een mens, hoe intelligent en moreel goed dan ook, kan fouten maken. Maakt de Caredroid ook wel eens een foutje? Hij leert van zijn ervaringen met patiënten. Kan hij zich hierna niet te veel door zijn ‘gevoel’ en emoties laten sturen? Pontier zegt van niet. “Ook bij mensen komt ratio voort uit gevoel. Pure ratio bestaat niet, behalve bij mensen met een hersenstoornis. Deze mensen kunnen bijvoorbeeld eindeloos nadenken over welke datum geprikt moet worden omdat onhandige opties niet automatisch op gevoel weggefilterd kunnen worden. Mensen maken complexe beslissingen als het kopen van een huis juist het beste wanneer ze hier een korte bedenktijd voor hebben, omdat ze dan een beslissing op gevoel nemen. Dit blijkt effectiever te zijn dan alle voordelen en nadelen tegen elkaar af proberen te wegen.”

De robots Alice, Meimei en Darwin gaan voor het eerst aan de slag in een aantal zorginstellingen waaronder bijvoorbeeld Zorggroep Amsterdam Oost. Voor ze aan deze job beginnen moeten ze helemaal goed functioneren. Op dit moment worden ze daarom getest. De intelligentie werkt, aan de interactie schort nog het één en het ander. Met testjes kijken de onderzoekers naar hoe ze de robots de benodigde interactie goed bij kunnen brengen zodat Alice, Meimei en Darwin bij hun werk met ouderen niets verkeerd doen of zeggen.

Nieuwsgierig en wilt u het project blijven volgen? Houd dan deze pagina in de gaten.