quadcopter

Hawking en diverse andere prominenten waarschuwen ernstig voor oorlogen waarin robots de dienst uitmaken.

In een open brief – gepresenteerd tijdens de International Joint Conference on Artificial Intelligence – spreken Hawking en tal van andere wetenschappers en prominenten als Elon Musk en Steve Wozniak zich openlijk uit tegen wat zij ‘autonome wapens’ noemen. Daaronder verstaan ze wapens die geheel zelfstandig doelwitten selecteren en aanvallen. “Daaronder vallen bijvoorbeeld bewapende quadcopters die mensen kunnen opsporen en elimineren,” zo is in de brief te lezen. “De technologie achter Kunstmatige Intelligentie heeft het punt bereikt waarop het inzetten van dergelijke systemen binnen enkele jaren – en dus niet decennia – mogelijk is en de inzet is hoog: autonome wapens worden gezien als de derde revolutie in oorlogvoering: na het buskruit en de nucleaire wapens.”

“Autonome wapens worden gezien als de derde revolutie in oorlogvoering: na het buskruit en de nucleaire wapens”

Wapenwedloop
In de brief – die nog steeds kan worden ondertekend – wordt gesteld dat een wapenwedloop met daarin een hoofdrol voor de autonome wapens op korte termijn kan gaan beginnen. Maar is dat wenselijk? De auteurs stellen van niet. “In tegenstelling tot nucleaire wapens zijn voor autonome wapens geen dure of moeilijk te verkrijgen grondstoffen nodig, dus ze zullen overal opduiken en heel goedkoop op grote schaal geproduceerd kunnen worden. Het is slechts een kwestie van tijd voordat ze op de zwarte markt en in de handen van terroristen, dictators die hun bevolking willen controleren, krijgsheren die etnische zuiveringen willen doorvoeren, enzovoort, opduiken. Autonome wapens zijn ideaal voor taken zoals executies, het ten val brengen van naties, het onderdrukken van populaties en selectief doden van een bepaalde etnische groep. We geloven daarom dat een wapenwedloop slecht is voor de mensheid.”

WIST JE DAT…

De voordelen van KI
Moeten we kunstmatige intelligentie dan maar helemaal afzweren? Absoluut niet, zo betogen de schrijvers en ondertekenaars. “Er zijn veel manieren waarop kunstmatige intelligentie oorlogsgebieden veiliger kan maken voor mensen – met name burgers – zonder dat er nieuwe gereedschappen worden gecreëerd om mensen te doden.” Verder benadrukken de onderzoekers dat er geen reden is om wetenschappers die zich bezighouden met kunstmatige intelligentie wantrouwend te bezien. “Net zoals natuurkundigen en biologen geen interesse hebben in het maken van chemische of biologische wapens hebben de meeste KI-onderzoekers geen interesse in het bouwen van KI-wapens en ze willen ook niet dat anderen hun onderzoeksdomein met dergelijk onderzoek ‘bevuilen’ en het publiek tegen kunstmatige intelligentie opzetten.”

“Net zoals natuurkundigen en biologen geen interesse hebben in het maken van chemische of biologische wapens hebben de meeste KI-onderzoekers geen interesse in het bouwen van KI-wapens”

De conclusie
“Samenvattend geloven we dat kunstmatige intelligentie op meerdere manieren grote voordelen
kan hebben voor de mensheid en dat dat ook het doel van het onderzoeksveld moet zijn. Het starten van een wapenwedloop die draait om KI-wapens is een slecht idee en moet voorkomen worden door een verbond op offensieve autonome wapens die niet onder controle van mensen staan.”

Eerder besteedden we op Scientias.nl al aandacht aan de verschillende manieren waarop robots op dit moment reeds op het strijdveld worden ingezet. Robots ruimen bijvoorbeeld bommen op of sjouwen spullen mee voor de soldaten. Ook drones worden al volop ingezet. Momenteel worden deze nog bestuurd door mensen, maar de volledig autonome drone die zelfstandig doelwitten kan opsporen en uitschakelen lijkt niet lang meer op zich te laten wachten. Hoewel de inzet van robots voordelen heeft (er vallen waarschijnlijk minder menselijke slachtoffers) zijn er ook grote nadelen. Zo zou ten strijde trekken een stuk laagdrempeliger worden. Ook vragen sommige mensen zich af of een gebrek aan emoties en ethisch inzicht de robot niet tot een ongewenste gast op het strijdveld maakt.