De vernietigende impact van AI op onze samenleving
Kunstmatige intelligentie wordt vaak gepresenteerd als een neutraal hulpmiddel dat onze samenleving efficiënter maakt. Maar twee rechtsprofessoren van Boston University, Woodrow Hartzog en Jessica Silbey, trekken in hun baanbrekend paper How AI Destroys Institutions een alarmerende conclusie. Hun centrale stelling is glashelder: als je een instrument zou willen ontwerpen om de instituten die ons democratisch leven ondersteunen te vernietigen, zou je niet beter kunnen doen dan kunstmatige intelligentie.
Deze provocerende these verdient een grondige analyse. Want wat de auteurs beweren gaat veel verder dan de gebruikelijke waarschuwingen over AI. Ze stellen dat het huidige ontwerp van AI-systemen fundamenteel onverenigbaar is met de kernfuncties van essentiële maatschappelijke instituten zoals overheidsinstanties, universiteiten, de rechtsstaat en de vrije pers.
De kernargumenten: waarom AI instituten ondermijnt
AI is geen neutraal instrument
Het eerste en misschien wel belangrijkste argument van Hartzog en Silbey is dat we moeten stoppen met het beschouwen van AI als een neutraal hulpmiddel. Voorstanders van AI verdedigen de technologie vaak door te beweren dat het gewoon efficiëntere tools zijn zonder substantiële betekenis. Maar predictieve en generatieve AI-systemen zijn geen neutrale kanalen die leidinggevenden, bureaucraten en gekozen leiders helpen om te doen wat ze toch al van plan waren, alleen kosteneffectiever.
Het ontwerp zelf van deze systemen staat haaks op en ondermijnt de kernfuncties van essentiële maatschappelijke instituten. Dit is geen kwestie van verkeerd gebruik of misbruik, maar van de fundamentele werking van de technologie zelf.
Transparantie versus black box
Democratische instituten functioneren op basis van transparantie en verantwoording. Burgers moeten kunnen begrijpen hoe beslissingen tot stand komen en wie verantwoordelijk is. AI-systemen werken als black boxes. Zelfs de ontwikkelaars kunnen vaak niet precies uitleggen waarom een systeem tot een bepaalde conclusie komt.
Dit gebrek aan transparantie tast de legitimiteit van instituten aan als AI beslissingen neemt. Wanneer een overheidsinstantie beslissingen neemt op basis van AI-aanbevelingen die niemand kan uitleggen, verdwijnt de mogelijkheid tot democratische controle. Burgers kunnen niet meer begrijpen, laat staan aanvechten, hoe beslissingen die hun leven beïnvloeden tot stand komen.
Samenwerking versus isolatie
Instituten zijn bij uitstek plaatsen van menselijke samenwerking. Universiteiten brengen studenten en docenten samen om kennis te delen en te ontwikkelen. Rechtbanken zijn forums waar verschillende partijen hun argumenten kunnen presenteren. Nieuwsredacties zijn plekken waar journalisten samen de waarheid proberen te achterhalen.
AI-systemen isoleren mensen juist van elkaar. Ze vervangen menselijke interactie door algoritmische beslissingen. Studenten krijgen gepersonaliseerde leertrajecten zonder contact met medestudenten. Rechtszaken worden voorgesorteerd door algoritmes. Nieuwsartikelen worden gegenereerd zonder journalistieke samenwerking. Deze isolatie ondermijnt de sociale cohesie die instituten juist moeten bevorderen.
Evolutie versus ossificatie
Een cruciaal kenmerk van gezonde instituten is hun vermogen om te evolueren en zich aan te passen aan veranderende omstandigheden. Wetten worden aangepast, onderwijsmethoden verbeteren, journalistieke standaarden ontwikkelen zich. Deze evolutie gebeurt door menselijke deliberatie, debat en leren van fouten.
AI-systemen daarentegen verstenen bestaande patronen. Ze worden getraind op historische data en reproduceren de patronen uit het verleden. Vooroordelen en ongelijkheden worden niet gecorrigeerd maar versterkt. Instituten die afhankelijk worden van AI verliezen hun vermogen om te evolueren en worden steeds meer verouderd en gelegitimeerd.
De maatschappelijke gevolgen
Ondermijning van de rechtsstaat
Wanneer AI-systemen worden ingezet in het rechtssysteem, bijvoorbeeld voor risicobeoordeling bij borgtochtbeslissingen of het bepalen van de strafmaat, ontstaan fundamentele problemen. Deze systemen kunnen niet uitleggen waarom iemand als risicovol wordt beschouwd. Ze kunnen geen rekening houden met unieke omstandigheden of verzachtende factoren. Het recht op een eerlijk proces, waarbij je je kunt verdedigen tegen beschuldigingen en de redenering achter beslissingen kan begrijpen, wordt uitgehold.
Verzwakking van het onderwijs
Universiteiten zijn niet alleen plaatsen om kennis over te dragen, maar ook om kritisch denken te ontwikkelen en studenten voor te bereiden op democratisch burgerschap. Wanneer AI-systemen het onderwijs optimaliseren met gepersonaliseerde leertrajecten en geautomatiseerde beoordelingen, gaat deze bredere missie verloren. Studenten leren niet meer samen te werken, verschillende perspectieven te waarderen of hun eigen ideeën te ontwikkelen in dialoog met anderen.
Erosie van de vrije pers
Journalistiek is meer dan het verzamelen en verspreiden van informatie. Het is een proces van verificatie, contextualisering en interpretatie dat afhankelijk is van menselijk oordeel en professionele standaarden. AI-gegenereerde nieuwsartikelen kunnen feiten samenvatten, maar missen het vermogen om macht ter verantwoording te roepen, complexe verhalen te onderzoeken of ethische afwegingen te maken. Wanneer nieuwsorganisaties steeds meer vertrouwen op AI, verzwakt hun rol als waakhond van de democratie.
Tegenargumenten en nuances
Efficiëntiewinst en toegankelijkheid
Voorstanders van AI wijzen terecht op de potentiële voordelen. AI kan juridische diensten toegankelijker maken voor mensen die zich geen advocaat kunnen veroorloven. Het kan onderwijs personaliseren voor studenten met verschillende leerbehoeften. Het kan journalisten helpen grote datasets te analyseren en patronen te ontdekken die anders verborgen zouden blijven.
Deze argumenten zijn niet zonder waarde, maar Hartzog en Silbey stellen dat de prijs te hoog is. Efficiëntie mag niet ten koste gaan van legitimiteit, transparantie en democratische controle. Bovendien zijn er vaak alternatieve manieren om toegankelijkheid te verbeteren zonder de fundamentele werking van instituten te ondermijnen.
Menselijke controle en hybride systemen
Een ander tegenargument is dat AI niet autonoom hoeft te opereren. We kunnen hybride systemen ontwikkelen waarbij AI mensen ondersteunt maar niet vervangt. Een rechter kan AI-aanbevelingen gebruiken als één van de vele factoren in zijn beslissing. Een docent kan AI-tools gebruiken om administratieve taken te verlichten en meer tijd te hebben voor persoonlijke begeleiding.
Dit klinkt redelijk, maar in de praktijk blijkt het moeilijk om deze balans te bewaren. Onderzoek toont aan dat mensen de neiging hebben om te veel te vertrouwen op AI-aanbevelingen, vooral wanneer ze onder tijdsdruk staan of de systemen als objectief worden gepresenteerd. Bovendien creëert de aanwezigheid van AI-systemen een druk om ze ook te gebruiken, anders zijn de investeringen niet gerechtvaardigd.
Niet alle AI is hetzelfde
Een belangrijk punt is dat Hartzog en Silbey vooral kritiek hebben op de huidige generatie AI-systemen, met name grote taalmodellen en predictieve systemen die getraind zijn op historische data. Ze sluiten niet uit dat toekomstige vormen van AI anders ontworpen kunnen worden. AI-systemen die transparanter zijn, die menselijke samenwerking faciliteren in plaats van vervangen, en die flexibel genoeg zijn om te evolueren, zouden minder problematisch kunnen zijn.
Dit is een belangrijke nuance, maar het verandert weinig aan de urgentie van hun waarschuwing. De AI-systemen die nu massaal worden uitgerold in onze instituten hebben de problematische kenmerken die zij beschrijven. We kunnen niet wachten op betere technologie terwijl onze instituten ondertussen worden uitgehold.
De weg vooruit
Hartzog en Silbey pleiten niet voor een volledig verbod op AI, maar voor een fundamenteel andere benadering. In plaats van te vragen hoe we AI kunnen inzetten om instituten efficiënter te maken, moeten we vragen hoe we instituten kunnen beschermen tegen de destructieve effecten van AI.
Dit betekent strengere regulering, maar ook een cultuurverandering. We moeten stoppen met het verheerlijken van technologische disruptie en meer waarde hechten aan de stabiliteit en legitimiteit van onze instituten. We moeten investeren in menselijke capaciteit in plaats van deze te vervangen door algoritmes. En we moeten democratische controle over technologie versterken in plaats van technologie te laten bepalen hoe onze democratie functioneert.