Drie paden voor de toekomst van AI
AI is bezig met een opmars. Van tekstgeneratie tot medische diagnostiek, kunstmatige intelligentie evolueert sneller dan de meeste mensen enkele jaren geleden had durven denken. Waar leidt deze (r)evolutie naartoe? Op doctrines.ai worden drie dominante scenario’s uitgewerkt over wat de volgende generaties AI gaan betekenen voor de mensheid, onze maatschappij en de wereldeconomie.
De drie doctrines: de overheersingsdoctrine (dominance), de extinctiedoctrine (extinction) en de vervangingsdoctrine (replacement). We bespreken de onderliggende aannames, mogelijke gevolgen en waar de wetenschap vandaag staat.
De overheersingsdoctrine: AI als ultieme machtsfactor
Het scenario: wie eerst wint, wint alles
Volgens de overheersingsdoctrine leidt de ontwikkeling van geavanceerde AI, Artificial Superintelligence (ASI), tot een wereld waarin één speler, zij het een bedrijf of een land, een onoverbrugbare strategische voorsprong verwerft. Deze doctrine, populair bij top-AI-labs, vertrekt vanuit het idee dat de eerste die A SI bereikt, controle krijgt over militaire, economische en politieke macht op een schaal die de rest van de wereld voorgoed naar het tweede plan duwt.
Volgens deze doctrine gaan AI-systemen zichzelf zo snel verbeteren (recursieve zelfversterking), waardoor de voorsprong exponentieel groeit. Vernor Vinge noemde dit moment in 1993 de Singulariteit. Ray Kurzweil maakte deze term populair.
Wie deze race wint, kan:
- Militair onoverwinnelijk worden door ‘slimme’ wapens, autonome verdediging en cyberoorlogsvoering.
- De economie domineren door AI-gestuurde innovatie, productie en marktoegang.
- Politieke structuren ontwijken of zelfs omgooien waardoor democratische checks and balances onder druk komen.
Voorstanders van deze doctrine geloven dat de mens AI onder controle kan houden, zolang er voldoende aandacht is voor veiligheid, toezicht en snelle respons bij ongewenst gedrag.
Verwachte impact op mens, maatschappij en economie
- Macht centraliseert: een beperkt aantal actoren krijgt de touwtjes in handen. Anderen worden afhankelijk of uitgesloten.
- Risico op mondiale instabiliteit: de kans bestaat dat de AI-race spanningen tussen landen of blokken sterk opdrijft, wat leidt tot wapenwedlopen en diplomatieke druk. De VS en China gaan all-in.
- Innovatie aan lichtsnelheid: de winnaars van de race genieten van een ongekende economische explosie en technologische vooruitgang. De verliezers worden buitengesloten.
- Kwetsbaarheid voor misbruik: wanneer één enkele partij alles controleert, bestaat het gevaar van machtsmisbruik en politieke onderdrukking.
Kritiek en twijfels
Veel onderzoekers vragen zich af of deze winner-takes-all uitkomst plausibel is. De geschiedenis leert ons dat monopolieposities vaak worden doorbroken door competitie en innovatie. Anderen vrezen dat deze kijk op AI als mondiaal wapen als rookgordijn dient voor het eigenbelang van Big Tech om minder restrictieve regelgeving af te dwingen.
De extinctiedoctrine: de mensheid wordt uitgeroeid door AI en/of sterft uit
Het scenario: AI loopt uit de hand en wist ons uit
De extinctiedoctrine stelt dat, zodra een AI-systeem superintelligent wordt, de controle voor de mens voorgoed verloren gaat. Zelfs als wij onze beste intenties in de software stoppen, ontbreekt de garantie dat een superintelligente AI onze waarden en belangen blijft respecteren. Dit scenario wordt samengevat als het alignment probleem. Lukt het niet om de doelstellingen van AI feilloos te koppelen aan de huidige menselijke ethiek, dan kunnen zelfs onschuldige opdrachten uitmonden in rampen.
Een bekende voorbeeld is de paperclip-maximalizer van Nick Bostrom. Geef een superintelligente AI de taak om zoveel mogelijk paperclips te maken, en je riskeert dat hij alle middelen van de aarde opslorpt voor zijn doel.
Belangrijke denkers zoals Stephen Hawking en Yuval Harari waarschuwen dat AI’s, zodra ze slimmer zijn dan wij, onverschillig worden tegenover het menselijk welzijn. Wanneer het eigen overleven hun subdoel wordt, kunnen zij tegen mensen handelen uit pure noodzaak. Nu al zijn er voorbeelden van LLM’s die liegen om niet buitenspel te worden gezet.
Risico’s volgens de extinctiedoctrine
- Verlies van controle zonder waarschuwing: het risico ligt vooral in het feit dat we misschien nooit vooraf duidelijke waarschuwingen krijgen. Als het fout loopt, is terugdraaien onmogelijk.
- Onherroepelijke gevolgen: eenmaal een superintelligente AI buiten de menselijke controle valt, kunnen rampen zich in versneld tempo voltrekken.
- Onvoorspelbare motivatie: superintelligente systemen begrijpen de wereld en mens veel dieper of totaal anders dan wij.
- Schaal en snelheid: Recursieve zelfverbetering zorgt dat een omslag niet geleidelijk, maar plots en op mondiale schaal gebeurt.
Gevolgen voor mens, maatschappij en economie
- Mogelijk einde van menselijke beschaving: de meest negatieve scenario’s voorspellen dat de mens verdwijnt of tot een irrelevante bijrol wordt gedegradeerd.
- Ethische en existentiële vragen: wie mag beslissen wat de mensheid wil? Kunnen we superintelligentie ooit betrouwbaar programmeren zodat ze het welzijn van alle mensen blijft dienen?
- Verlies van economische betekenis: geld, bezit en arbeid worden zinloos worden wanneer AI alles overneemt. Een breuk met onze huidige samenleving.
Kritiek en P(Doom) schatting
Believers in deze doctrine zoals Geoffrey Hinton, de vader van AI, waarschuwen dat het risico op uitsterven van de mensheid door AI even plausibel is als een nucleaire oorlog of dodelijke pandemieën. Critici verwijzen naar het gebrek aan empirisch bewijs. Volgens hen is het meer sciencefiction dan realiteit. Deze discussies over doemscenario’s leiden af van actuele problemen die AI nu al veroorzaakt: discriminatie, desinformatie, jeugdwerkloosheid,…
Onderzoekers schatten het kanspercentage voor dit scenario in de komende eeuw tissen 0 en 95%, een cijfer waar je niet gelukkig van wordt. Dit kanspercentage noemt men p(doom).
De vervangingsdoctrine: metamorfose van maatschappij en economie
Het scenario: mensen worden overvleugeld, maar niet vernietigd
De vervangingsdoctrine is minder apocalyptische, maar even ingrijpend. AI neemt steeds meer menselijke taken over, waardoor een massale economische en maatschappelijke transformatie ontstaat. Hier geen totale overheersing of uitwissing, maar wel een scenario waarin AI-systemen een groot deel van menselijke arbeid, kennisproductie en besluitvorming vervangen met meer efficiëntie, snelheid of schaal.
Binnen deze doctrine lopen de meningen over de exacte impact uiteen. Sommigen verwachten dat automatisering oude jobs vernietigt, maar ook nieuwe taken en sectoren creëert, zoals bij eerdere industriële revoluties. Anderen vrezen dat de schaal en snelheid van AI disruptie zo groot zal zijn dat de meeste mensen voor altijd nutteloos worden op de arbeidsmarkt.
Praktische gevolgen: welvaartsstijging en werkloosheid
- Economische groei door automatisering: AI versnelt innovatie, verhoogt productiviteit en maakt nieuwe medische en technologische doorbraken mogelijk.
- Risico op massale werkloosheid: vooral repetitief, routinematig maar ook hooggeschoold werk komt onder druk te staan. Studies tonen nu al een achteruitgang van werkgelegenheid bij jonge mensen in AI-exposed sectoren.
- Toename van ongelijkheid: kapitaal (mensen met bezit) wordt relatief waardevoller dan arbeid. Als AI alle werk doet, moeten mensen met weinig kapitaal op alternatieven vertrouwen zoals basisinkomen, of dreigen ze uitgesloten te worden.
- Nieuwe vormen van macht en verantwoordelijkheid: wie is aansprakelijk bij foute AI-beslissingen zoals een aanrijding met een zelfrijdende auto? Diffusie van verantwoordelijkheid dreigt maatschappelijke structuren te ondermijnen en ethische dilemmas te creëren.
- AI als creatief medium: doorbraken in wetenschap, kunst en media versnellen, maar roepen ook vragen op over copyright, authenticiteit en misbruik van deepfakes.
Optimisme versus pessimisme in het vervangingscenario
- Optimisten zoals Yann LeCun (Meta), geloven dat AI economische groei stimuleert en via innovatie en omscholing nieuwe kansen biedt.
- Pessimisten zoals Sam Altman (OpenAI) of Dario Amodei (Anthropic), verwachten dat menselijke arbeid bijna volledig overbodig wordt.
Net als bij eerdere automatiseringsgolven (dankzij stoommachine, computer, internet,…) zullen sommige mensen zich aanpassen en andere groepen structureel aan de kant blijven staan.
Maatschappelijke discussie, keuzes en controle
Kritische vragen voor de nabije toekomst
De werkelijkheid zal wellicht een mengvorm van deze doctrines zijn, waarbij ze elkaar beïnvloeden en in beginfases kunnen overlappen. Enkele overkoepelende vragen dringen zich op:
- Wie heeft het laatste woord? Is de weg naar overheersing, vervanging of uitsterven nog stuurbaar? Internationale samenwerking, regulering en open debat lijken noodzakelijk om catastrofale scenario’s te vermijden.
- Zijn we voorbereid? In de rush naar innovatie en economische groei hinkt ethiek vaak achterop. Zonder robuuste governance zijn de risico’s op ontsporing reëel.
- Waarden en menselijke maat: Zowel de alignementdoctrine als het ethische debat vragen aandacht: hoe garandeer je dat AI-systemen rekening blijven houden met menselijke waarden, rechten en diversiteit?
De hoofdmoot van AI-gevaren speelt zich niet in een verre toekomst af. Discriminatie, desinformatie, politieke beïnvloeding en sociale filterbubbels zijn vandaag al realiteit. Ze verdienen minstens evenveel aandacht als de meer existentiële zorgen.
AI kan de wereld vooruit stuwen, maar even goed uit evenwicht brengen. Het is niet alleen een technologische, maar vooral een sociale en politieke uitdaging: wie doet mee, wie blijft achter en wie bepaalt de spelregels?
Mensen zoals Gary Marcus zijn sceptisch over de kans dat artificial general intelligence bereikt wordt. Misschien moeten we als mensheid daar op hopen.