Het tijdperk van de AI-clouds
Wie de voorbije jaren de AI-wereld een beetje volgde, zag het krachtenveld van cloud computing pijlsnel verschuiven. Niet langer zijn de oude bekenden als AWS, Azure en Google Cloud de enigen die de AI-show stelen. Enter Coreweave: een Amerikaanse ‘neocloud’ die zich halsstarrig profileert als dé motor voor GPU-intensieve AI workloads. In het kielzog van de generatieve AI-hype is Coreweave uitgegroeid van obscure cryptominingspeler tot een gigant die vandaag als backbone fungeert voor bedrijven als OpenAI, Microsoft en NVIDIA zelf. Maar wat maakt Coreweave nu echt uniek? En hoe positioneert het zich ten opzichte van de gevestigde hyperscalers en jonge neocloud-concurrenten?
Wat is Coreweave? De roots van een AI powerhouse
Coreweave is een Amerikaanse speler – met hoofdzetel in Livingston, New Jersey – die zich sinds 2019 toelegt op hypergespecialiseerde cloudinfrastructuur, puur gebouwd rond GPU’s voor AI-toepassingen. Oorspronkelijk gestart als Atlantic Crypto, een ethereum miningbedrijf in 2017, maakten de oprichters – traders zonder schrik van risico – in 2019 de ommezwaai richting cloud computing, nadat de cryptomarkt instortte. De troef? Ze hadden al een gigantische vloot aan GPU’s, klaar voor herbestemming.
In no-time groeide Coreweave uit tot een infrastructuurpartner voor de snelstgroeiende AI-bedrijven ter wereld. Coreweave bezit (anno 2025) 32 datacenters verspreid over de VS en Europa, met samen meer dan 250.000 NVIDIA GPU’s operationeel en een reputatie als ‘AI hyperscaler’. Door een verregaande samenwerking met NVIDIA – Coreweave is steevast de eerste cloudprovider die toegang krijgt tot de nieuwste hardware zoals de GB200 en de beruchte H100/H200-chips – kon het zowel hyperscalers als opkomende neoclouds te snel af zijn, en zich positioneren als de plaats waar AI-infrastructuur écht wordt ‘gemaakt’.
De kracht van specialisatie: Neoclouds versus hyperscalers
Wat Coreweave onderscheidt, is haar radicaal andere aanpak in vergelijking met traditionele hyperscalers. Waar AWS, Azure en Google Cloud generieke cloudproducten aanbieden voor alles en iedereen, positioneert Coreweave zich als pure specialist: alles draait rond GPU-performance en AI-workloads. Het model is zo uitgepuurd rond efficiëntie in AI-datacenters dat Coreweave amper energie verspilt aan klassieke diensten als VM hosting, databases, of IoT-omgevingen. GPU-capaciteit is het product, AI is de afnemer.
Hoe werkt Coreweave? Technologie, platform en software
Kubernetes-native tot op het bot
Coreweave’s infrastructuur is volledig Kubernetes-native opgebouwd: elke aanvraag, ieder pad naar rekenkracht verloopt via containers en orchestratieplatformen. Dankzij deze architectuur kunnen AI-developers van kleine start-ups tot giganten als OpenAI en Microsoft hun applicaties schalen en deployen alsof ze over een eigen supercomputer beschikken. Het open platform laat gebruikers toe om zelf het gewenste aantal GPU’s, CPU’s en geheugen vast te leggen, inclusief multi-GPU setups voor extreem zware trainingjobs.
Uniek hardwarebeleid en datacenterstrategie
Door als één van de eersten fors te investeren in NVIDIA’s snelste GPU’s (denk H100, H200 en nu Blackwell GB200) biedt Coreweave toegang tot hardware die bij andere providers vaak pas maanden later beschikbaar zijn. Hun datacenters zijn ‘purpose-built’ voor AI: dense racks, glasvezel van hier tot in Tokyo (meer dan 10.000 kilometer nieuwe fiber in 2023), liquid cooling en redundante stroomvoorziening tot op hyperscaler-niveau.
Coreweave combineert eigen datacenters met gehuurde capaciteit van partners zoals Core Scientific, waardoor ze flexibel kunnen inspringen op tijdelijke pieken en experimenteren met cutting-edge architectuur, meestal sneller dan gevestigde reuzen.
Platform en software: Mission Control en managed services
Voor gebruikers bouwt Coreweave software die de infrastructuur plakbaar en verifieerbaar maakt: hun ‘Mission Control’ suite laat toe elk hardware-onderdeel te monitoren, te testen en bij te sturen voor optimale performance en kostenbeheersing. Extra’s zoals managed storage, state-of-the-art networking, health monitoring en observability zijn geïntegreerd. Niet onbelangrijk: alles blijft gericht op AI-scenario’s zoals grootschalige modeltraining, inference, generatieve AI, realtime simulaties en high-performance graphics workloads.
- Directe toegang tot GPU-pools (NVIDIA A40, A100, A6000, H100, H200, Blackwell)
- Flexibel schalen: van een enkele GPU voor prototyping tot honderden voor mega-trainingruns
- Gebruik van NVLink en stateful storage voor distributed en multi-GPU jobs
- Containerisatie met Docker/Kubernetes, inclusief YAML-gestuurde resource requests
- Plaatsing van dedicated/isolated hardware voor specifieke security- of workloadeisen
Coreweave optimaal gebruiken
Voor wie (en waarvoor) is Coreweave ideaal?
Coreweave speelt in op de noden van AI-reuzen, maar ook van onderzoeksinstituten, Vlaamse start-ups of universiteiten die high-performance GPU’s willen voor training van grootschalige LLM’s, generatieve beeldmodellen of simulaties.
- Schaalbare AI-training: Denk aan complexere modellen als GPT, Diffusion-netwerken, of video-bots. Hier blinkt Coreweave uit door de massaal aanwezige VRAM, parallelle GPU-inzet en indrukwekkende I/O-bandbreedtes.
- Inferentie op schaal: Als inference-latency en throughput echt kritisch zijn, kan Coreweave dedicated nodes bieden.
- Reproduceerbare, flexibele workflows: Met Kubernetes-orchestratie, API-first integratie en support voor alle gangbare AI-frameworks (PyTorch, TensorFlow, JAX) schakel je zonder vendor lock-in.
- Ontwikkel- en experimentatieruimte: Dankzij granulariteit in GPU-keuze en prijszetting kan je evengoed itereren op een RTX 3090 als batch-training doen op een A100 of Blackwell, zonder onnodige overhead.
- Integratie met CI/CD en MLOps: Coreweave integreert naadloos met infrastructuur-automation, via Terraform, CLI en uitgebreide API’s. Wil je programmatic automatisch GPU’s opschalen tijdens load, of je pipelines verbinden met Weights & Biases? Deze laatste is net door Coreweave overgenomen.
Waar zit de kracht van Coreweave écht?
- Snelheid en flexibiliteit: Snel toegang tot de nieuwste en krachtigste NVIDIA-chips, zonder trage procurement-processen en wachttijden.
- AI-centric support: Geen “jack of all trades, master of none” cloudsupport, maar specialisten die weten waar modelinference of distributed training écht op stukloopt.
- Transparantie en pricing: Betaling per seconde (of minuut) gebruik, met scherpe prijzen voor bulk-gebruikers, zonder de klassieke ‘cloud surprise bill’ van hyperscalers.
- Integraties en developertools: Directe hooks naar frameworks als Hugging Face, model repositories, MLOps-platformen en API-based on-demand provisioning.
- Datacenterlocaties: Eigen centra in Europa, zoals het UK-hoofdkwartier en uitbreidende capaciteit in Nederland, verlagen de latency en helpen bij GDPR-vraagstukken.
De donkere kant: uitdagingen en risico’s
Concentratierisico en financiële rollercoaster
Coreweave is geen onfeilbare reus. Zoals uit diverse analyses en de recentste S-1 IPO documenten blijkt, is het bedrijf extreem afhankelijk van een handvol grootklanten (Microsoft was goed voor 62% van alle omzet in 2024, NVIDIA wellicht de tweede ‘whale’). Zo’n forse concentratie maakt het kwetsbaar bij plotse klantterugtrekkingen of gewijzigde AI-investeringstrends.
Daarbovenop draait Coreweave op een berg schulden (tot 8 miljard dollar aan uitstaand krediet en torenhoge interestvoeten tot ruim 14% per jaar). Zolang het groeitempo en de vraag naar massale AI-compute blijven aanhouden, lukt het om deze uitgaven te maken, maar de marges staan stevig onder druk. De jaarlijkse operationele verliezen stapelden zich de voorbije jaren aan (in 2024 ging meer dan 860 miljoen dollar in het rood), waardoor je mag spreken van een ‘high risk/high reward’ scenario.
De afhankelijkheid van strategische deals, zoals dat met OpenAI (waardoor OpenAI tegelijk grote klant én minderheidsaandeelhouder werd), zorgt bovendien voor extra volatiliteit.
Datacenteruitbreiding en infrastructuurpartners
Voor zijn enorme capaciteit steunt Coreweave deels op partners als Core Scientific. Die partij heeft zelf een hobbelig parcours achter de rug (o.a. faillissement in 2022, heropstart in 2024). Het ombouwen van crypto-infrastructuur naar AI-ready is niet altijd eenvoudig of transparant. Het risico bestaat dat Coreweave haar belofte van snelle, grootschalige uitrol niet consistent waarmaakt, zeker als partners in de problemen komen.
Hoe verhoudt Coreweave zich tot de concurrentie?
De opkomst van ‘neoclouds’ leeft: Coreweave, Lambda, RunPod, Crusoe en Voltage Park zijn de bekendste namen. Maar klassieke hyperscalers – AWS, Azure, Google Cloud – zijn nog lang niet uitgeteld. Wat volgt is een genuanceerde vergelijking vanuit het perspectief van Vlaamse AI-bouwers en -ondernemingen.
Coreweave vs klassieke hyperscalers (AWS, Azure, Google Cloud)
- Performance: Coreweave focust exclusief op GPU-workloads, met als resultaat minder overhead en hogere toewijzingsefficiëntie. Hyperscalers hebben vaak langere wachttijden of minder directe toegang tot de nieuwste GPU’s.
- Prijs: Coreweave (en haar neocloud-concurrenten) bieden doorgaans fors lagere prijzen (tot 80% goedkoper voor zware GPU-instanties) omdat alles geoptimaliseerd is rond high-volume, single-purpose workloads.
- Flexibiliteit: Hyperscalers zijn universeel inzetbaar (compute, IoT, databases, enz.), wat handig is voor hybride projecten. Coreweave scoort vooral als je puur zware AI-workloads draait zonder nood aan een geolied serverloze ecosysteem en tientallen nevendiensten.
- Beschikbaarheid: Door haar bevoorrechte toegang tot NVIDIA chips, biedt Coreweave sneller toegang tot het allernieuwste GPU-materiaal.
- Prijsmodel: Coreweave rekent per seconde, zonder minimum commitment. Hyperscalers vragen vaak reservaties of minimumafnames om een goede prijs te halen.
Coreweave vs neocloud-concurrenten
Lambda: Ook pure GPU-cloud (veel gebruikt door researchers). Minder breed qua hardware dan Coreweave, maar heel sterk in support, eenvoudige interface, en snelle onboarding.
RunPod: Rasecht ‘developer-friendly’, met ongeziene snelheid om Kubernetes-pods of notebooks te starten, plug-and-play voor experimenten. Grotere variatie tussen GPU-keuzes (je kan zelfs een RTX4090 krijgen) en een community met Discord-ondersteuning voor AI-enthousiastelingen. Minder enterprise-focussed, maar ijzersterk qua gebruiksgemak. Voor AI-image generation van typ Stable Diffusion is RunPod vaak sneller inzetbaar, terwijl Coreweave sterker blijft op massieve enterprise-trainingjobs, HPC of lange termijn workloads.
Crusoe, Voltage Park: Tekenen ook present in de neocloud-liga met sterke datacenteruitrol en GPU-as-a-service, maar halen lang niet dezelfde early access-status bij NVIDIA. Ze profileren zich eerder als prijsbrekers of met duurzaamheid (hernieuwbare energie-integratie).
Key takeaways:
- Coreweave blijft de ‘AI-cloud der AI-clouds’: de grootverbruiker en specialist met directe lijnen naar NVIDIA’s research & roadmaps. Perfect voor extreme workloads, onderzoek en enterprise-schaalmodellen. Minder geschikt als je een plug-and-play, goedkope omgeving zoekt voor occasionele AI-experimenten.
- RunPod en Lambda scoren hoger in setup-snelheid, community-vibe en toegankelijkheid voor individuele developers of kleinere teams.
- Hyperscalers zijn aangewezen als je een breedpakket aan bedrijfsapplicaties in de cloud wil zetten, en niet louter AI-toepassingen draait.
Strategische tips: selecteren en integreren
- Ken je workload: Wil je grote LLM’s trainen, eigen modellen deployen voor klanten, of eerder experimenteren met kleinere projecten? Laat de workload je platformkeuze bepalen. Coreweave is overkill voor kleine jobs, subliem voor mega-trainingsruns of always-on inference.
- Test region latency: Voor optimalisatie in bijvoorbeeld Vlaanderen of Nederland: test latency en datacenterlocatie. Coreweave’s aanwezigheid in de UK en Europa is een voordeel, maar niet altijd close genoeg voor ultra-lage latency.
- Let op vendor lock-in: Alle providers bieden integraties, maar Kubernetes-containerisatie werkt vendor-agnostisch. Hou daar rekening mee als toekomstige platformmigratie een optie moet blijven.
- Budget- en contractstrategie: Voor kortlopende, creatieve experimenten zijn neoclouds als RunPod flexibeler en goedkoper. Coreweave biedt de scherpste prijzen bij langdurige reservaties (denk reserved instances of dedicated clusters).
- Community en support: Voor beginnende AI-ontwikkelaars biedt een platform met actieve community zoals RunPod meer direct antwoord op vragen. Bij Coreweave krijg je eerder enterprise support en directe lijnen voor high-value projecten.
De toekomst van Coreweave en AI-cloud-infrastructuur
Coreweave heeft zich ongezien snel opgewerkt tot dé centrale pion binnen de AI cloud-infrastructuur, en is tegelijk een voorbeeld van de risico’s en opportuniteiten van het AI-tijdperk. Solide partnerships, een indrukwekkend hardwarepark en pure AI-focus maken het tot de powerhouse voor veeleisende workloads die hyperscalers vaak niet meteen kunnen invullen.
Anderzijds maakt de afhankelijkheid van een beperkt aantal grootklanten, de hoge schuldenlast en de onophoudelijke kapitaalophaling het model kwetsbaar. Zolang AI compute ‘hot’ blijft, gaan bedrijven als Coreweave goud halen uit hun specialisatie. Maar een stagnatie van AI-investeringen of een plotse disruptie uit onverwachte hoek (denk aan efficiëntere modellen met lagere hardware-noden of radicale chip-innovatie) kan het kaartenhuisje doen instorten.
Wie als Vlaamse AI-ondernemer, academicus of cloudarchitect vandaag zijn cloudstrategie wil vernieuwen, doet er goed aan om Coreweave te beschouwen als een ‘power tool’ – niet als Swiss army knife. Voor AI workloads met extreme compute-noden is Coreweave bijna zonder concurrentie. Voor al de rest blijven alternatieven als RunPod, Lambda of zelfs de oude hyperscalers relevante opties met elk hun eigen sterktes.
Laatste bedenkingen
De toekomst van AI-cloudinfrastructuur zal niet bepaald worden door één speler, maar door een race naar hardware-innovatie, regionale aanwezigheid, pricing-innovatie en ‘ease of use’. Coreweave heeft zich op de kaart gezet als de brute krachtcentrale. Maar wie weet wat het volgende decennium brengt… misschien een Vlaamse neocloud?