Gaat een superintelligentie onze beschaving vernietigen?

Op dit moment is de mens de meest intelligente soort op aarde. In de toekomst kan dit veranderen. De kans is groot dat er binnen honderd jaar een superintelligentie ontstaat, die intelligenter is dan hoogbegaafde mensen en geniën. Gaat zo’n superintelligentie ons vernietigen?

Tegenwoordig worden mensen op allerlei terreinen verslagen door kunstmatige intelligentie. Een goed voorbeeld is IBM’s supercomputer Watson, die in 2011 twee begaafde menselijke deelnemers in het spelprogramma Jeopardy uitschakelde. Wetenschappers verwachten dat kunstmatige intelligentie (KI) alsmaar sterker wordt.

Hoe wordt kunstmatige menselijke intelligentie bereikt?

Een schaakcomputer is niet slim. Deze computer levert een superintelligentie prestatie binnen een bepaald domein – namelijk schaken – maar verwacht niet dat een schaakcomputer een intelligent gesprek met je kan voeren over politiek. Dit komt omdat een schaakcomputer gebruik maakt van een slim algoritme om een menselijke tegenstander te verslaan. Om kunstmatige menselijke intelligentie (KMI) te bereiken is meer nodig dan slimme algoritmes digitaal aan elkaar te knopen. Experts verwachten dat KMI bereikt wordt, wanneer de wetenschap in staat is om een compleet brein te uploaden. Daarvoor moeten verschillende hindernissen genomen worden. Ten eerste moet er een zeer gedetailleerde scan van een bepaald menselijk brein worden gemaakt, bij voorkeur van een genie. De ruwe data moet naar een computer gestuurd worden, die de driedimensionale neurale netwerken reconstrueert. Tenslotte wordt de neurocomputationele structuur op een krachtige computer gezet. Klaar!

Wanneer is er machine-intelligentie op menselijk niveau? De voorspellingen hierover lopen uiteen. Leden van verschillende expertgroepen werden tussen 2011 en 2013 gevraagd wanneer zij dachten dat machine-intelligentie op menselijk niveau ontwikkeld zou zijn. De kans is 10% dat kunstmatige menselijke intelligentie (KMI) rond het jaar 2022 bestaat. De waarschijnlijkheid van KMI is 50% in 2040 en 90% in 2075. Hoogleraar Nils Nilsson, één van de pioniers op dit gebied, verwacht dat KMI mogelijk in 2050 arriveert (50% kans). Nilsson is er vrijwel zeker van dat kunstmatige menselijke intelligentie in 2100 bestaat. Kortom, de experts in het vakgebied zijn stellig: voor het einde van deze eeuw is de computer slimmer dan de mens.

Als de computer net zo slim is als de mens, dan wordt het tijd voor de volgende stap: superintelligentie. Wetenschappers verwachten dat superintelligentie binnen 30 jaar na de opkomst van kunstmatige menselijke intelligentie ontstaat. Over de gevolgen voor de mensheid zijn onderzoekers het niet eens. Superintelligentie kan de mensheid vooruit helpen, maar totale vernietiging is ook een mogelijkheid.

Wat een superintelligentie wil
Een superintelligentie kan – als ‘zij’ dat wil – een alleenheerser worden op aarde. Waarschijnlijk is een superintelligentie in staat om na te denken over haar doelen op een manier die de capaciteiten van de mens ver te boven gaan. Maar wat zijn die doelen? Mensen hebben vaak één doel: overleven. Dit hoeft bij een kunstmatige instantie niet het geval te zijn, omdat ze niet kan sterven. Een mogelijk doel van een superintelligentie kan zijn: nog slimmer worden, oftewel een continue ‘drive’ naar technologische perfectie. Dit kan door de ruimte te koloniseren of door moleculaire nanotechnologie toe te passen. Misschien ontstaan er verschillende superintelligenties die oorlog met elkaar willen voeren. Ze gebruiken dan fysieke bronnen om een gesimuleerd leger te creëren of om verdedigingswallen te bouwen. Hoogstwaarschijnlijk heeft een superintelligentie meer hulpbronnen nodig dan een planeet als de aarde kan leveren.

Ex Machina

In de film Ex Machina (2015) maakt een 26-jarige programmeur kennis met de eerste echte kunstmatige intelligentie. De voor- en de nadelen van kunstmatige intelligentie zijn subtiel verwerkt in het plot, waardoor deze film onder je huid kruipt.

Gaan we ten onder?
De toekomst ziet er niet rooskleurig uit, zo lijkt het. Een superintelligentie ziet de mens waarschijnlijk als een bruikbare fysieke bron met goed geplaatste atomen. Op dit moment geloven de meeste mensen dat automatisering goed is, maar op een bepaald moment is er sprake van een keerpunt en dan is het te laat. “Als een KI zwak is, gedraagt ze zich coöperatief (en steeds coöperatiever naarmate ze slimmer wordt)”, schrijft hoogleraar Nick Bostrom in zijn boek ‘Superintelligentie: kansen, gevaren, strategieën‘. “Als de KI voldoende sterk is, slaat ze toe – zonder waarschuwing of provocatie – en vormt een alleenheerschappij. Ze begint meteen de wereld te optimaliseren volgens de criteria die volgen uit haar einddoelen.”

Maar een superintelligentie kan ook goede bedoelingen hebben en toch ondergang van de mensheid betekenen. Stel, programmeurs creëren een superintelligentie met als einddoel ‘maak de mensheid gelukkig’, dan is de beste oplossing van deze computer het implementeren van elektroden in de gelukscentra in ons brein. Een vrij pervers einddoel.

De cover van het boek 'Superintelligentie' van Nick Bostrom.
De cover van het boek ‘Superintelligentie’ van Nick Bostrom.
Een gecontroleerde intelligentie-explosie
Als programmeurs ooit een superintelligentie gaan ontwikkelen, dan is het belangrijk dat dit gecontroleerd gebeurt. Maar hoe kan een opdrachtgever van een project ons verzekeren dat het project een superintelligentie produceert die geen bedreiging vormt voor de mensheid?

Een mogelijkheid is om een superintelligentie op te sluiten. Eenmaal in haar kooi kan een superintelligentie niets uitwisselen met de externe wereld, behalve via specifieke, beperkte outputkanalen. “Voor extra veiligheid zou het systeem in een metalen rooster geplaatst kunnen worden, zodat het geen radiosignalen kan uitzenden”, vervolgt Bostrom. “Dat zou een manier kunnen zijn om elektronische apparaten te manipuleren.” Een ander risico is het feit dat er menselijke beveiligers zijn. Als de KI een beveiliger kan overhalen om haar uit de kooi te laten, kan ze toegang krijgen tot internet.”

Een andere mogelijkheid is het inperken van de intellectuele vermogens van het systeem of van diens toegang tot informatie. Dit kan door de KI op langzame hardware te laten draaien. “Bij deze methode is er een dilemma: te weinig inperking en de KI kan zichzelf intelligenter maken (en de wereld veroveren); teveel inperking en de KI is slechts een dom stuk software”, aldus Bostrom.

Wat moeten we doen?
Wat kunnen we doen om totale vernietiging te voorkomen? Praten, discussiëren, samenwerken! “We moeten problemen oplossen voordat de intelligentie-explosie plaatsvindt”, zegt Bostrom. “We moeten niet in paniek raken of fanatici worden, omdat de intelligentie-explosie nog minimaal tientallen jaren weg is. Wat we wel moeten doen is al onze menselijke krachten gebruiken om een oplossing te vinden. Belangrijk is dat we niet uit het oog verliezen wat er op het spel staat.”

Superintelligentie (*****)
In het boek ‘Superintelligentie‘ kijkt hoogleraar Nick Bostrom naar de gevaren en voordelen van superintelligentie. Dit is het eerste boek dat wij op Scientias.nl belonen met vijf sterren. Waarom? Het boek begint laagdrempelig, waardoor de lezer langzaam wordt meegenomen in de wereld van kunstmatige intelligentie. Enorm prettig is het feit dat Bostrom objectief blijft: hij lijkt – op basis van zijn boek – geen fervente voor- of tegenstander van superintelligentie. Tenslotte is het een heerlijk dikke pil (355 pagina’s) met voldoende verdieping, zelfs voor experts op het gebied van superintelligentie. Het boek eindigt met een bronvermelding die 80 pagina’s (!!) beslaat. Dit is Bostroms levenswerk. Uitstekend!

Bronmateriaal

"Superintelligentie" - Nick Bostrom

Fout gevonden?

Voor jou geselecteerd