Sommige deskundigen vrezen van wel.

Dat blijkt uit een nieuw rapport van het RAND Center for Global Risk and Security. Het rapport is gebaseerd op een serie workshops waarbij wetenschappers, beleidsmakers en andere deskundigen zich bogen over de vraag: ‘Hoe kan kunstmatige intelligentie tegen 2040 van invloed zijn op de kans op een kernoorlog?’.

Misschien denk je in eerste instantie dat kernwapens en KI weinig met elkaar te maken hebben. Maar dat is niet zo. “De connectie tussen kernoorlog en kunstmatige intelligentie is niet nieuw, sterker nog: de histories van de twee zijn met elkaar verweven,” vertelt onderzoeker Edward Geist. Hij vertelt dat KI in een pril stadium ontwikkeld werd omwille van militaire doeleinden. Een mooi voorbeeld daarvan is een experiment uit de jaren tachtig, waarbij KI werd ingezet om op basis van data die tijdens verkennende missies waren verzameld verschillende plaatsen aan te wijzen die tijdens een eventuele kernoorlog konden worden aangevallen.

Mutual Assured Destruction
Uit de workshops blijkt dat het eigenlijk twee kanten op gaan. Sommige onderzoekers denken bijvoorbeeld dat kunstmatige intelligentie een bedreiging vormt voor de nucleaire stabiliteit. Die stabiliteit is op dit moment gebaseerd op de militaire strategie MAD (Mutual Assured Destruction, oftewel gegarandeerde wederzijdse vernietiging). Deze strategie stelt dat landen met kernwapens deze niet tegen elkaar zullen inzetten, omdat het niet alleen resulteert in de vernietiging van het aangevallen land, maar ook in de vernietiging van de aanvaller (aangezien het aangevallen land ongetwijfeld met kernwapens terugslaat). Volgens sommige onderzoekers zou kunstmatige intelligentie deze militaire strategie de komende decennia kunnen ondermijnen. En wel doordat kunstmatige intelligentie in staat is om de wapensystemen van de tegenstander nauwkeuriger dan ooit te lokaliseren en aan te vallen. In zo’n scenario kan de aanvaller die wapensystemen uitschakelen, waarna het aangevallen land niet meer terug kan slaan, MAD dus geen rol meer speelt en het gemakkelijker wordt om naar de kernwapens te grijpen.

Wapenwedloop
En zelfs als landen niet de intentie hebben om de kernwapensystemen van andere landen uit te schakelen, kan de gedachte dat zij daar dankzij KI wel toe in staat zijn, al voldoende zijn om tot een kernoorlog of in ieder geval een wapenwedloop te leiden. Stel je voor dat land A laat doorschemeren dat het precies weet waar de kernwapens van land B liggen. Dan zal land B zich kwetsbaar voelen; in zekere zin zijn haar kernwapens – die toch vooral moeten afschrikken – nutteloos geworden, omdat land A ze elk moment weg kan nemen. Land B zal dan ook op zoek gaan naar nieuwe manieren om zich tegen land A te beschermen en die Mutual Assured Destruction-strategie in ere te herstellen.

Stabiliserende werking
Andere onderzoekers stellen dat KI de wereld echter ook veiliger kan maken. Bijvoorbeeld doordat de systemen beter in staat zijn om tegenstanders te monitoren en hun verrichtingen te interpreteren. Dat zou de kans op onterechte escalatie verkleinen. Ook is het mogelijk dat toekomstige kunstmatige intelligente systemen minder foutgevoelig zijn dan wij mensen, met onze eigen belangen en emoties. In die zin zouden de systemen op lange termijn dus ook stabiliserend kunnen werken.

Of dat in 2040 echter al gaat gebeuren? Daar zijn de meeste deskundigen niet van overtuigd. Zij stellen dat de technologie tegen die tijd waarschijnlijk nog niet is uitgekristalliseerd. Zo kan deze pas in combinatie met kernwapens worden ingezet als deze onmogelijk te hacken is. En zover zijn we nog niet. Het is dan ook te hopen dat kernwapenlanden – in een poging anderen te slim af te zijn en als eersten de vruchten van KI te plukken – niet vroegtijding naar de kunstmatig intelligente systemen grijpen, aldus de deskundigen.