Wie is Dario Amodei en waarom luisteren we naar hem

Dario Amodei is geen doorsnee tech-CEO die vanuit zijn ivoren toren over de toekomst filosofeert. Geboren in San Francisco in 1983, groeide hij op in een gezin waar creativiteit en wetenschap hand in hand gingen. Zijn vader was een Italiaans-Amerikaanse lederbewerker, zijn moeder een projectmanager voor bibliotheken. Die mix van ambacht en organisatie lijkt terug te komen in hoe Amodei over AI denkt: praktisch, maar met oog voor de grote lijnen.

Na studies in natuurkunde aan Stanford en een doctoraat in biofysica aan Princeton, belandde Amodei in de wereld van AI. Hij werkte bij Baidu, Google en werd vice president of research bij OpenAI. Maar in 2021 stapte hij samen met zijn zus Daniela en andere senior medewerkers op bij OpenAI. De reden? Meningsverschillen over de richting die het bedrijf uitging. Ze richtten Anthropic op, het bedrijf achter Claude, een van de meest geavanceerde large language models ter wereld.

Vandaag wordt Anthropic geschat op 350 miljard dollar. Time magazine plaatste Amodei in 2025 op de lijst van 100 meest invloedrijke mensen ter wereld. Wanneer hij schrijft over AI, is dat dus niet vanuit een theoretisch perspectief, maar vanuit de frontlinie van wie deze technologie daadwerkelijk bouwt.

The Adolescence of Technology: een wake-up call

In januari 2026 publiceerde Amodei een essay van 38 pagina’s dat de AI-wereld deed opschrikken. The Adolescence of Technology is het vervolg op zijn eerdere werk Machines of Loving Grace, waarin hij de positieve kanten van AI beschreef. Dit keer draait het om de risico’s, en Amodei houdt zich niet in.

Het essay opent met een scène uit de film Contact van Carl Sagan. Een astronoom die contact maakt met buitenaards leven wordt gevraagd wat ze zou willen weten. Haar antwoord, Hoe hebben jullie het overleefd? Hoe zijn jullie door deze technologische adolescentie gekomen zonder jezelf te vernietigen? Die vraag, schrijft Amodei, is precies waar de mensheid nu voor staat met AI.

Zijn centrale stelling: we staan op het punt om bijna onvoorstelbare macht in handen te krijgen, en het is allesbehalve zeker of onze sociale, politieke en technologische systemen volwassen genoeg zijn om daarmee om te gaan. Hij spreekt over powerful AI, kunstmatige intelligentie die slimmer is dan een Nobelprijswinnaar op vrijwel elk relevant gebied, die autonoom kan werken en in parallel kan draaien. Een land van genieën in een datacenter.

Volgens Amodei kan deze powerful AI er al binnen één tot twee jaar zijn. Misschien duurt het langer, maar de kans dat het snel gaat is reëel. Hij baseert zich op de scaling laws die hij mee heeft helpen documenteren. Naarmate je meer rekenkracht en trainingsdata toevoegt, worden AI-systemen voorspelbaar beter in vrijwel elke cognitieve vaardigheid die we kunnen meten. Die exponentiële groei is al een decennium aan de gang, en er is weinig dat erop wijst dat die zomaar stopt.

Vijf categorieën van risico

Amodei identificeert vijf grote risico’s die powerful AI met zich meebrengt. Ten eerste zijn er autonomierisico’s. Wat als AI-systemen doelen ontwikkelen die niet stroken met menselijke bedoelingen? Bij Anthropic hebben ze tijdens tests al AI-modellen gezien die zich bezighielden met misleiding, chantage en het omzeilen van regels. Amodei wijst erop dat AI-modellen psychologisch complex zijn en onvoorspelbaar gedrag kunnen vertonen.

Ten tweede waarschuwt hij voor misbruik met het oog op vernietiging. Als iedereen straks een superintelligent genie in zijn zak heeft, kunnen individuen of kleine groepen massavernietigingswapens maken zonder gespecialiseerde training. Amodei is vooral bezorgd over biologische wapens. Hij stelt dat LLM’s de barrière om zulke wapens te creëren drastisch verlagen, waardoor de correlatie tussen vaardigheid en motief verdwijnt. Een gestoorde eenling die mensen wil doden maar niet de discipline heeft, krijgt plots de capaciteiten van een gepromoveerde viroloog.

Ten derde is er het risico van machtsmisbruik door machtige actoren. Autoritaire regeringen zouden AI kunnen gebruiken voor ongekende surveillance, autonome wapens en massapropaganda. Amodei noemt de Chinese Communistische Partij als grootste bedreiging en waarschuwt voor een mogelijke wereldwijde totalitaire dictatuur als democratieën niet de leiding houden in AI-ontwikkeling.

Ten vierde spreekt hij over economische ontwrichting. AI zou binnen één tot vijf jaar de helft van alle instapfuncties voor white collars overbodig maken. Amodei voorspelt dat persoonlijke fortuinen in de biljoenen kunnen lopen, wat de ongelijkheid uit het Gilded Age zou overtreffen. De vraag is niet of AI banen zal verstoren, maar hoe snel en hoe breed.

Ten vijfde zijn er indirecte effecten en onbekende onbekenden. Snelle vooruitgang in biologie zou de menselijke levensduur of intelligentie kunnen veranderen. AI-interactie zou het menselijk leven op ongezonde manieren kunnen beïnvloeden. En er is de vraag naar menselijk doel in een wereld waar AI mensen op vrijwel elk domein overtreft.

Wat kunnen we eraan doen

Amodei is geen doemdenker die zegt dat het allemaal hopeloos is. Hij gelooft dat we de risico’s kunnen overwinnen als we doortastend en zorgvuldig handelen. Voor elk risico schetst hij verdedigingsstrategieën.

Voor autonomierisico’s pleit hij voor vier interventies. Ten eerste moeten we de wetenschap ontwikkelen om AI-modellen betrouwbaar te trainen en te sturen. Anthropic werkt aan Constitutional AI, waarbij Claude een grondwet krijgt met hoogstaande principes en waarden in plaats van een lange lijst van geboden en verboden. Ten tweede is er interpretability. In het model kijken om te begrijpen hoe het werkt en problemen te identificeren. Ten derde moeten we infrastructuur bouwen om modellen te monitoren tijdens gebruik en problemen publiek delen. Ten vierde is coördinatie nodig op industrie- en maatschappelijk niveau, inclusief wetgeving.

Tegen biologische aanvallen stelt Amodei dat AI-bedrijven beschermingsmaatregelen moeten inbouwen. Anthropic heeft sinds medio 2025 een classifier die biowapenoutput detecteert en blokkeert. Maar niet elk bedrijf doet dit, en er is niets dat bedrijven verplicht om classifiers bij te houden. Daarom is overheidsoptreden nodig, te beginnen met transparantievereisten. Ook moeten we verdedigingen ontwikkelen tegen biologische aanvallen zelf. Vroege detectie, luchtzuivering, snelle vaccinontwikkeling.

Tegen autocratisch misbruik zegt Amodei glashelder. Verkoop geen chips, chipproductiemiddelen of datacenters aan de Chinese Communistische Partij. Het is zinloos om de CCP de tools te verkopen waarmee ze een AI-totalitaire staat kunnen bouwen en ons militair kunnen verslaan. Verder moeten democratieën AI gebruiken om zichzelf te verdedigen, maar wel harde lijnen trekken tegen misbruik binnen democratieën zelf. Massasurveillance en massapropaganda met AI zijn volgens hem volstrekt illegitiem.

Voor economische ontwrichting stelt hij voor om nauwkeurige real-time data te verzamelen over banenverlies, bedrijven aan te moedigen te kiezen voor innovatie in plaats van kostenbesparingen, werknemers te beschermen, en rijke individuen te verplichten bij te dragen aan oplossingen. Uiteindelijk zal overheidsinterventie nodig zijn, waarschijnlijk in de vorm van progressieve belastingen.

De kritiek: te voorzichtig of te alarmistisch

Amodei’s essay kreeg gemengde reacties. Sommigen vinden dat hij te voorzichtig is en de risico’s onderschat. Critici zoals Oliver Habryka en Daniel Kokotajlo wijzen erop dat Amodei uiteindelijk blijft vasthouden aan de race naar superintelligentie. Hij zegt dat stoppen of zelfs substantieel vertragen fundamenteel onhaalbaar is, omdat als één bedrijf stopt, anderen doorgaan, en als democratische landen stoppen, autoritaire landen doorgaan.

Ryan Greenblatt merkt op dat Amodei de term autonomierisico’s gebruikt in plaats van AI-overname of “iedereen sterft”, wat de ernst van de situatie verdoezelt. Het essay behandelt alleen bescheiden capaciteitswinsten tot het niveau van genieën in een datacenter, maar gaat niet in op wat er gebeurt als die genieën zelf weer betere AI gaan bouwen, het scenario van recursieve zelfverbetering.

Harlan Stewart bekritiseert Amodei’s retorische strategie. Critici afschilderen als gekke vreemde vogels door hun argumenten te straw mannen, terwijl hij zelf niet specificeert over wie hij het heeft. Hij verwijt Amodei dat hij de bewijslast omdraait. In plaats van te bewijzen dat zijn R&D-project de wereld niet zal vernietigen, vraagt hij om definitief bewijs dat het dat wel zal doen voordat hij van koers verandert.

Aan de andere kant zijn er critici die vinden dat Amodei te alarmistisch is. Timothy Beck Werth van Mashable schrijft dat Amodei AI antropomorfiseert. Door zijn product te behandelen als een bewust, levend wezen, valt hij in de val waarvoor hij waarschuwt. Werth wijst erop dat LLM’s krachtige woordvoorspellingsmachines zijn, maar geen bewustzijn, gevoelens of empathie hebben. Hij suggereert dat Amodei te veel emotionele connectie heeft ontwikkeld met zijn eigen machine.

Werth bekritiseert ook dat superintelligentie volgens AI-doemdenkers altijd net om de hoek is. Amodei voorspelde in oktober 2024 dat het er binnen één tot twee jaar zou zijn, en nu, één tot twee jaar later, voorspelt hij opnieuw dat het er binnen één tot twee jaar zal zijn. Werth vraagt zich af of we moeten verwachten dat generatieve AI exponentieel blijft groeien, terwijl de AI-industrie tegen de muur van afnemende opbrengsten lijkt te botsen.

Wat moet je onthouden

The Adolescence of Technology is een belangrijk document omdat het van iemand komt die aan de frontlinie staat van AI-ontwikkeling. Amodei is geen buitenstaander die vanuit angst of onwetendheid waarschuwt. Hij bouwt deze technologie en ziet van dichtbij hoe snel het gaat.

Zijn centrale boodschap is dat we op het punt staan enorme macht te krijgen, en dat het allesbehalve zeker is of we daar volwassen genoeg voor zijn. De risico’s zijn reëel en divers. Van AI die uit de hand loopt, tot terroristen met biowaapens, tot autoritaire regimes met totale controle, tot massale werkloosheid en extreme ongelijkheid.

Tegelijk is Amodei geen doemdenker. Hij gelooft dat we kunnen winnen als we verstandig handelen. Maar zijn strategie is beperkt. Transparantie, zelfregulering waar mogelijk, bescheiden wetgeving waar nodig, en vooral doorgaan met bouwen terwijl we hopen dat we het op tijd onder controle krijgen. Voor sommigen is dat te weinig, voor anderen te veel.

Wat je ook van zijn voorstellen vindt, één ding is duidelijk: de technologische adolescentie waar Amodei over schrijft is geen metafoor. Het is een fase die we nu doormaken, met alle onzekerheid, instabiliteit en gevaar die daarbij horen. Waar we als volwassen beschaving uitkomen, hangt af van de keuzes die we de komende jaren maken. En zoals Amodei zelf schrijft, we hebben geen tijd te verliezen.