Kunstmatige intelligentie: omarmen of wantrouwen?

Iedereen heeft het erover: kunstmatige intelligentie. Maar wat is het precies? En moeten we er naar uitzien of voor vrezen?

Bij kunstmatige intelligentie denken veel mensen al snel aan robots die al dan niet het slechtste met de mensheid voor hebben. Maar kunstmatige intelligentie is veel breder dan dat en het is zelfs zo breed dat er niet echt een eenduidige definitie voor bestaat. Dat komt mede doordat ‘intelligentie’ zelf zo lastig te vangen is in een definitie. Jan Broersen, universitair hoofddocent en onderzoeker aan de Universiteit Utrecht, vat het samen als “het via computationele middelen proberen nabootsen van onze intelligentie.” Hij voegt nog toe dat hij denkt dat de eerste onderzoekers van kunstmatige intelligentie het nog breder zagen: “Volgens mij hadden zij in hun hoofd dat artificiële intelligentie het nabootsen van de mens in álle aspecten is.”

Van de slimme thermostaat tot Netflix
Tegenwoordig vinden we al op veel plekken vormen van kunstmatige intelligentie: in de slimme thermostaat zit het, maar ook bij Netflix voor de aanbevelingen die ze elke gebruiker doen en wat te denken van Alpha Go? Een belangrijke toepassing op dit moment is volgens Broersen het beoordelen van informatie. “Facebook gebruikt het bijvoorbeeld om nepnieuws te onderscheiden van echt nieuws, wat volgens mij ontzettend lastig is.”

Wat is KI?
Russell en Norvig splitsen in hun boek Artificial Intelligence: a modern approach de kunstmatige intelligentie op in vier subdomeinen: systemen die denken als een mens, systemen die zich gedragen als een mens, systemen die rationeel denken en systemen die zich rationeel gedragen. Op het gebied van systemen die denken of zich gedragen als een mens is er nog een lange weg te gaan, we weten immers niet eens hoe mensen precies denken, dus laat staan dat we dat in een computer kunnen inbouwen. Een computer die rationeel kan handelen en/of denken is daarentegen een stuk makkelijker te maken: voor rationeel ‘denken’ moet een computer in staat zijn om geldige afleidingen te maken uit kennis die de computer al bezit. Om een simpel voorbeeld te geven, als de computer weet dat A gelijk is aan B en ook dat B gelijk is aan C, dan moet de computer kunnen deduceren dat A gelijk is aan C. Rationeel handelen is handelen op zo’n manier dat het de beste uitkomst tot gevolg heeft. Dat zorgt echter voor een moeilijkheid omdat het soms niet mogelijk is om door rationeel denken tot de juiste handeling te komen: als je je hand op een hete ondergrond legt is de rationele handeling om hem direct terug te trekken, maar die handeling komt niet voort uit rationele gedachten, maar uit een reflex.

“Mens zijn is meer dan alleen intelligentie en ik weet niet of we dat zullen kunnen benaderen”

Strong vs Weak
Daarnaast wordt kunstmatige intelligentie ook verdeeld in strong AI (sterke KI) en weak AI (zwakke KI). Een strong AI is een systeem dat ‘echt’ kan denken en een bewustzijn heeft, een weak AI is een systeem dat alleen kan handelen alsof het denkt en een bewustzijn heeft. Het probleem is dat deze termen niet heel duidelijk gedefinieerd zijn. Om op Alpha Go terug te komen, op het gebied van het spelen van Go is het een strong AI, maar gezien in een bredere context is het een weak AI omdat het niet verder komt dan het spelen van het spel. Dit is ook het onderscheid dat door veel mensen gemaakt wordt wanneer ze zeggen dat een kunstmatige intelligentie nooit kan bestaan: daarmee bedoelen ze niet dat Alpha Go geen kunstmatige intelligentie is, maar dat een strong AI met dezelfde capaciteiten als een mens niet mogelijk is. Jan Broersen vraagt zich ook af of we ooit tot strong AI zullen komen: “Mens zijn is meer dan alleen intelligentie. Ik weet niet of we dat zullen kunnen benaderen. De wetenschappers die begonnen met het onderzoek in artificiële intelligentie hadden de verwachting dat dat haalbaar moest zijn, alleen veel wetenschappers kijken daar tegenwoordig anders tegenaan.”

KI in oorlogssituaties

Het lijkt een kwestie van tijd voor ontwikkelingen binnen de robotica en kunstmatige intelligentie leiden tot zogenoemde ‘killer robots’: autonome wapens die zelf kunnen beslissen of ze iemand doden of niet. Hoe gaan we daar grip op houden? We vroegen het robotica-deskundige Koen Hindriks recent. Lees hier wat hij daarover te vertellen had.

Morele vraagstukken
Of het ooit zover komt dat een strong AI gemaakt wordt is een vraag waar nu geen antwoord op te geven is. Maar dat is ook niet van belang, belangrijker zijn de morele vraagstukken die gepaard gaan met de ontwikkeling van kunstmatige intelligentie. Want ook toepassingen die bedoeld zijn om de mens te helpen in plaats van te doden, hebben aspecten waar goed over nagedacht moet worden. Volgens Broersen is het gevaar van kunstmatige intelligentie niet zozeer dat zij kwaadaardig tegenover de mens zullen zijn, maar eerder dat mensen ze voor ‘kwaadaardige’ doeleinden zullen gebruiken. Op dit moment is het vooral oplichting dat hij ziet als gevaar: “Met nieuwe technologie zie je dat in eerste instantie de snelle jongens erop springen. Iedereen kan AI-technieken downloaden van het internet. Vervolgens trainen ze deze AI’s op wat financiële data en zeggen ze dat ze op basis van ‘advanced AI’ aanbevelingen kunnen doen voor de aankoop van aandelen en dergelijke. Veel mensen zullen daarin trappen, want AI is een buzz-woord en niet iedereen weet goed wat het inhoudt.” Op het moment dat AI wat verder is en er autonome systemen komen, komt er een ander belangrijk vraagstuk naar voren: wie is verantwoordelijke als er iets gebeurd door toedoen van een kunstmatige intelligentie? “Voor de wet kunnen we dit allemaal dicht timmeren. In het Europees Parlement zijn er al gesprekken over een wet die zegt dat een AI aansprakelijk kan worden gehouden. Maar moreel gezien ligt die vraag toch een stuk complexer.”

Over een jaar of twintig is de zelfrijdende auto – bomvol met KI – een feit, zo denkt Broersen. DanielReche / Pixabay

Autonome systemen
Een systeem dat autonoom kan handelen moet altijd een manier hebben waarop het goede van slechte opties kan onderscheiden. Neem bijvoorbeeld een routeplanner: autonoom stippelt deze een route uit van punt A naar B. Het doel dat het hierbij heeft, is het minimaliseren van de tijd die het kost om van A naar B te komen. Alle verschillende routes die er mogelijk zijn hebben een bepaalde waarde: de tijd in minuten die de route afleggen kost. Deze waarde in minuten geeft aan welke optie beter is dan een andere optie. De routeplanner ‘kiest’ dan vervolgens de route met het laagste aantal minuten waarmee het zijn doel voltooit. De regels waar een routeplanner aan moet voldoen zijn redelijk eenvoudig te programmeren, maar dat wordt lastiger wanneer de systemen complexer worden. “Als er veel verschillende situaties zijn waar een artificiële intelligentie voor kan komen te staan, dan is het onmogelijk om voor al die verschillende situaties de regels in te bouwen in het systeem. Voor zulk soort situaties wordt er vaak gebruik gemaakt van een subsymbolisch systeem, zoals bijvoorbeeld een neuraal netwerk.” Subsymbolisch betekent dat er niet langer regels zijn die in woorden uit zijn te drukken, maar dat de AI van veel verschillende situaties geleerd heeft wat de regels zouden moeten zijn.

“Het is zeer waarschijnlijk dat KI een keer de verkeerde beslissing neemt. En wie is er dan verantwoordelijk?”

Stel je de volgende situatie voor: een zelfrijdende auto nadert een zebrapad waar een voetganger wil oversteken. Op het moment dat de auto wil gaan remmen om de voetganger over te laten steken, merkt de auto dat de remmen niet meer werken. Na een snelle berekening komt de auto tot de conclusie dat er twee opties zijn: of de voetganger die inmiddels aan het oversteken is, doodrijden of de auto tegen de muur sturen waarbij de bestuurder omkomt. Als deze situatie tijdens de training niet aan bod is gekomen, dan zal de auto uit de situaties die wel aan bod zijn gekomen moeten afleiden wat het moet doen. Er is sprake van abstracte regels die niet in woorden zijn uit te drukken, maar die het systeem moet halen uit de voorbeelden die het wel kent. Omdat het onmogelijk is om tijdens het leren alle mogelijke situaties aan bod te laten komen, zal het systeem op basis van wat het geleerd heeft, moeten handelen. Maar omdat er enorm veel situaties mogelijk zijn, is er zeer waarschijnlijk wel een specifieke situatie waarin de AI het verkeerde besluit neemt. “De vraag is dan wie verantwoordelijk is. Wettelijk gezien kan dat allemaal dicht getimmerd worden, maar moreel gezien is het een stuk moeilijker. Dit is ook mijn onderzoeksgebied, want waar ligt die verantwoordelijkheid nou precies? De één vindt bij de AI en de ander bij degene die de AI heeft ingezet, de maker. Het antwoord is niet eenvoudig.” Volgens Broersen zie je dat de discussie al langzaam op gang komt, maar zal hij pas echt gevoerd worden wanneer er ongelukken gebeuren met kunstmatige intelligentie, en die zijn onvermijdelijk als AI overal om ons heen is.

Gedragspatronen
Broersen denkt overigens dat het niet lang meer gaat duren voor KI overal is. Hij verwacht dat over een jaar of twintig de zelfrijdende auto een feit is. Maar KI zal op veel meer plekken te vinden zijn dan alleen in de zelfrijdende auto. “Ik denk dat het overal aanwezig zal zijn en dan vooral in de informatievoorziening en -vergaring. We dragen nu allemaal al een apparaat bij ons waar we alles mee doen en de bedrijven daarachter zullen in toenemende mate artificiële intelligentie gaan gebruiken om onze gedragspatronen te analyseren. Die informatie zullen ze gebruiken om ons te beïnvloeden en te voorspellen wat we willen, want dat is waar AI heel goed in is.”

Zelf is Broersen heel nieuwsgierig of kunstmatige intelligentie ooit in staat zal zijn om muziek te maken die mensen raakt: “Ik denk dat je voor muziek gevoel voor schoonheid en emotie nodig hebt. Als een computer in staat is om muziek te maken die mij raakt, dan zal ik misschien overstag moeten gaan en zeggen dat AI misschien toch in staat is om ons in alle opzichten te evenaren.” Of dat ooit zo zal zijn is iets wat we moeten afwachten, maar dat de ontwikkelingen snel gaan, daarover bestaat geen discussie.

Thomas van Zwol (1991) heeft de bachelor Kunstmatige Intelligentie aan de Universiteit Utrecht afgerond en is nu bezig zijn opleiding Journalistiek af te maken. Binnen de KI heeft hij zich gespecialiseerd in agents en machine learning. Door zijn wetenschappelijke achtergrond is hij als journalist goed in staat om onderzoeken te begrijpen om de informatie vervolgens op zo’n manier op te schrijven dat het voor veel mensen toegankelijk is.

Bronmateriaal

Interview met Jan Broersen, universitair hoofddocent en onderzoeker aan de Universiteit Utrecht
Russell, S. J., Norvig, P., & Canny, J. (2003). Artificial intelligence: A modern approach

Afbeelding bovenaan dit artikel: HypnoArt / Pixabay

Fout gevonden?

Voor jou geselecteerd