Hoe gaan we kunstmatige intelligentie ‘managen’? Daar is over nagedacht en het resulteert in een lijstje met 23 aandachtspunten.

De lijst is samengesteld tijdens de Beneficial AI 2017-conferentie die door meer dan 100 KI-deskundigen werd bezocht. Een richtlijn kwam pas op de lijst terecht als minstens 90 procent van de bezoekers van de conferentie vond dat de richtlijn klopte. De resulterende lijst wordt door tal van wetenschappers – waaronder Stephen Hawking – onderschreven. En ook Elon Musk heeft er zijn handtekening onder gezet.

We spreken van kunstmatige intelligentie als machines intelligent gedrag vertonen. Misschien ben je je er niet van bewust maar KI speelt waarschijnlijk al een rol in jouw leven. Zo valt Siri op je iPhone onder KI, net als de slimme thermostaat en (semi-)autonome auto.

Onderzoek
De richtlijnen gaan onder meer over de wijze waarop er onderzoek moet worden gedaan naar KI, hoe KI moet worden ingezet, welke ethische vraagstukken KI met zich meebrengt, enzovoort. “We hopen dat deze richtlijnen voer zijn voor heftige discussies en ambitieuze ideeën over hoe de kracht van KI ingezet kan worden om het leven van iedereen de komende jaren te verbeteren,” stelt de organisatie van de conferentie.

De lijst
Een greep uit de richtlijnen op de lijst:
– Het doel van KI-onderzoek is het creëren van een intelligentie waar we baat bij hebben;
– Mensen moeten het recht hebben om toegang te hebben tot de data die zij genereren, deze te managen en controleren, aangezien KI in staat is om deze data te analyseren en gebruiken;
– Superintelligentie zou alleen ontwikkeld moeten worden als de gehele mensheid – en dus niet als slechts één staat of organisatie – daar baat bij heeft;
– Zeer autonome KI-systemen zouden zo ontworpen moeten worden dat hun doelen en gedrag op één lijn liggen met de menselijke waarden;
– Een wapenwedloop op het gebied van dodelijke autonome wapens moet vermeden worden;
– KI-systemen die ontwerpen zijn om zichzelf continu te verbeteren of te vermenigvuldigen op een manier die kan leiden tot een toenemende afname in kwaliteit of kwantiteit moeten onderworpen worden aan strikte veiligheids- en controlemaatregelen;
– Aangezien er geen consensus is, moeten we aannames omtrent de upper limit van KI-mogelijkheden vermijden.

Uitgelicht
Dat laatste is voor professor Roman Yampolskiy, één van de onderzoekers die de richtlijnen ondertekenden, heel belangrijk. “We moeten aannemen dat KI tot alles in staat is en ons daar ook op voorbereiden. Als we ernaast zitten, zitten we nog goed.” Onderzoeker Stefano Ermon maakt zich het meest druk om de wapenwedloop die door het gebruik van KI zou kunnen ontstaan. “Ik wil niet dat mijn bijdragen aan KI gebruikt worden om mensen te schaden of wapens te ontwikkelen of oorlogen te starten die nog dodelijker zijn dan nu reeds het geval is.” Voor onderzoeker Francesca Rossi is het weer belangrijk dat KI de menselijke waarden handhaaft. “Omdat mensen en machines nauw samen werken, wil je dat ze echt een team zijn. Dus wil je dat de mens er zeker van kan zijn dat het KI-systeem zich gedraagt volgens de waarden van die persoon.” Gemakkelijk zal dat niet zijn. “Er zal veel gediscussieerd moeten worden om die waarden te begrijpen.” Ook onderzoeker Anca Dragan vindt deze richtlijn belangrijk. “Robots zullen niet proberen om in opstand te komen tegen de mensheid, maar zij zullen de taken die wij ze geven, steeds verder optimaliseren. Dus moeten we ervoor zorgen dat ze bij die optimalisatie de wereld voor ogen hebben die wij daadwerkelijk willen.”

De complete lijst is hier terug te vinden. Welke richtlijn springt er voor jou uit?