Er is geen twijfel over mogelijk: robots worden steeds slimmer en gaan in de toekomst steeds meer taken van de mens overnemen. Dat er al robots bestaan die u een glaasje water kunnen brengen is niets nieuws maar een robot waar u een gesprek mee kunt voeren wel.

Tijdens de boekpresentatie van Overal robots. Automatisering van de liefde tot de dood waren sommigen toch nog sceptisch. Zo dacht iemand dat robots nooit sociaal intelligent konden worden. “Een robot stamt niet af van apen, mensen wel”. Ook waren mensen bang dat robots in onze samenleving zouden leiden tot desocialisering. Dr. Matthijs Pontier, werkzaam aan de Vrije Universiteit Amsterdam denkt dat dit wel mee zal vallen. “Ik denk niet dat robots leiden tot desocialisering. Als robots zich sociaal-emotioneel menselijk gedragen, waarom zouden we dan onze menselijke vaardigheden verliezen? Sterker nog, robots worden succesvol toegepast om mensen met autisme meer sociaal vaardig te maken,” vertelt hij in een interview aan Scientias.nl. Pontier ontwikkelde een model dat robots sociale intelligentie geeft en is nu bezig met een model dat hen moreel kan laten redeneren. “Een sociaal intelligente robot kan wel degelijk werkelijkheid worden”.

Wat dacht u toen u deze robot voor het eerst zag? Dacht u niet eerst aan een mens? Dat is helemaal niet zo vreemd; er zijn meerdere mensen die dit dachten. Philip lijkt zeer echt, maar schijn bedriegt: zodra hij begint te praten valt u op dat er iets niet klopt en dat kan u letterlijk rillingen bezorgen. “De zogeheten Uncanney Valley theorie” vertelt Pontier. “Als mensen iets zien dat op een mens lijkt maar toch ook weer niet, dan vinden zij dit beangstigend. Iets wat duidelijk niet tot onze soort behoort, vinden zij niet eng. Er is nog sprake van een duidelijke ‘mismatch’ tussen mensen en humanoïde robots. Deze laatste hebben al een menselijk uiterlijk, maar gedragen zich er niet naar en dat bezorgt velen de koude rillingen.” Pontier werkt sinds kort samen met Hanson Robotics. Samen willen zij binnen een paar jaar de modellen van Pontier op Philip K. Dick aansluiten.

Sociale intelligentie
Het ene model, dat Pontier schreef tijdens het behalen van zijn doctoraat, herkent gezichtsuitdrukkingen en emoties. Om dit te testen liet hij een aantal proefpersonen een speeddate uitvoeren met het model, dat was ingebouwd in een poppetje op de computer. Zowel de persoon als het poppetje kon kiezen tussen een aantal antwoorden bij het beantwoorden van een vraag die de ander stelde. Het poppetje leek de persoon die voor hem zat aardig te begrijpen. “Hij herkent een bepaalde emotionele lading. Wanneer de persoon onaardig deed, koos hij voor een ander antwoord dan wanneer hij of zij wel aardig deed.” Proefpersonen konden in het experiment niet onderscheiden of het poppetje bestuurd werd door het model of een echt persoon. Het model slaagde dus voor de Turing Test.

Het gezicht van robot Philip K. Dick. Foto gemaakt door Philip K. Dick Android Project.

Morele redenatie
Een ander model waar Pontier op dit moment nog mee bezig is, moet robots in de toekomst de mogelijkheid geven om moreel te redeneren. Dit is belangrijk voor bijvoorbeeld robots in de zorg of in het leger. “Om robots de levenskwaliteit van mensen te laten verbeteren, is het belangrijk dat zij moreel besef krijgen en afwegingen kunnen maken,” vertelt hij. Het is Pontier al gelukt om bepaalde vormen in het model te krijgen. “Een voorbeeld is wanneer een patiënt zijn medicijnen niet wil innemen. De robot moet dan vervolgens beslissen of hij de arts erbij haalt of niet.” Het model kan ook nuttig zijn voor robots in het leger. “Ik ben van mening dat robots pas op mensen mogen schieten wanneer zij moreel besef hebben en niet eerder.”

Menselijke eigenschappen
In het eerdere artikel vroeg Scientias.nl zich af of de illusie van sociale intelligentie niet al genoeg is. Huisdieren geven ons die illusie al, waarom zouden we dan een robot in huis willen? Zullen wij hetzelfde van een robot accepteren als van een huisdier? Pontier denkt van wel. “Uit wetenschappelijk onderzoek blijkt dat mensen al snel menselijke eigenschappen projecteren in dode voorwerpen, zoals een computer, een auto of een tamagotchi, net zoals ze dat inderdaad in (levende) dieren doen. Hierdoor zal een illusie van sociale intelligentie al snel door mensen ervaren worden als dat de robot hen ‘echt’ begrijpt.”

Vertrouwen
Toch kan een samenleving met robots mogelijk best beangstigend zijn. U zal dan vertrouwen moeten hebben in een machine en niet in een mens, die weet wat hij doet. Pontier denkt dat mensen snel over dit probleem heen kunnen stappen. “Denk maar aan een wasmachine. In het begin controleert u of hij wel echt schoonmaakt. Maar op een gegeven moment stopt dat en heeft u er vertrouwen in.” Een ander recent voorbeeld is de Google auto. Deze volledig autonome auto gaat binnenkort de weg op in de Verenigde Staten. “Mensen kunnen bang zijn voor een wereld die gedomineerd wordt door machines. Ik denk niet dat dit gaat gebeuren, maar we moeten er wel goed over nadenken.”

Voor nu zijn er al wel robots op de markt die uw huis stofzuigen of het gras maaien. Volgens Pontier worden ze steeds populairder. “Er is al veel enthousiasme, ondanks dat de techniek nog veel verbeteringen nodig heeft. Binnen een paar jaar komen er ook robotkatjes op de markt voor kinderen en zullen de schoonmaakrobots flink zijn verbeterd. Ook wordt er gewerkt aan softwarerobots, die uw financiële administratie doen en een koelkast die zelf de voorraad bij houdt en boodschappenlijstjes maakt. Het is maar net waar je aan denkt bij een robot.” Toch zullen we nog even moeten wachten op volledig menselijke robots mét niet te onderscheiden sociale intelligentie. “Dat duurt nog wel een paar decennia, maar ik ben ervan overtuigd dat het kan en dat ga ik bewijzen!”