Wanneer de aarde te klein wordt voor AI

De vraag naar rekenkracht voor kunstmatige intelligentie groeit exponentieel. Datacenters verslinden steeds meer energie, water en ruimte. Google zoekt nu letterlijk naar nieuwe horizonten en kijkt daarbij omhoog, naar de ruimte. Met Project Suncatcher wil het techbedrijf een constellatie van satellieten uitrusten met TPU’s (Tensor Processing Units) die volledig op zonne-energie draaien. Het klinkt als sciencefiction, maar de eerste prototypes worden in 2027 gelanceerd.

De zon produceert meer dan 100 biljoen keer zoveel energie als de totale elektriciteitsproductie van de mensheid. In een baan rond de aarde kan een zonnepaneel tot acht keer productiever zijn dan op het aardoppervlak. Bovendien schijnt de zon daar vrijwel continu, waardoor zware batterijen overbodig zijn.

Wat is Project Suncatcher

Project Suncatcher is een onderzoeksinitiatief dat de haalbaarheid verkent van AI-infrastructuur in de ruimte. Het concept draait om compacte constellaties van satellieten die uitgerust zijn met Google’s eigen AI-chips, de TPU’s. Deze satellieten zouden in een zogenaamde dawn-dusk sun-synchronous low earth orbit vliegen, een baan die ervoor zorgt dat ze bijna constant in het zonlicht blijven.

De satellieten worden met elkaar verbonden via free-space optical links, draadloze optische verbindingen die data met enorme snelheden kunnen versturen. Google heeft al aangetoond dat snelheden van 1,6 terabit per seconde haalbaar zijn, vergelijkbaar met de snelste verbindingen in datacenters. Het modulaire ontwerp maakt het mogelijk om het systeem geleidelijk uit te breiden, afhankelijk van de vraag naar rekenkracht.

In tegenstelling tot traditionele satellieten die kilometers van elkaar verwijderd zijn, moeten de Suncatcher-satellieten op slechts honderden meters van elkaar vliegen. Deze nauwe formatie is noodzakelijk om de optische verbindingen efficiënt te laten werken. Google ontwikkelde geavanceerde fysische modellen om te bewijzen dat zo’n compacte constellatie stabiel kan blijven met slechts bescheiden correctiemanoeuvres.

De technische uitdagingen van datacenters in de ruimte

Een datacenter in de ruimte bouwen is geen sinecure. Google identificeerde vier grote technische obstakels die overwonnen moeten worden:

Supersnelle communicatie tussen satellieten

Machine learning-taken vereisen dat duizenden processors tegelijk samenwerken. Dat betekent dat de satellieten met elkaar moeten kunnen communiceren aan snelheden van tientallen terabits per seconde. Google lost dit op door multi-channel dense wavelength-division multiplexing (DWDM) te gebruiken, een techniek waarbij meerdere lichtgolflengtes tegelijk data versturen.

Het probleem is dat zo’n hoge bandbreedte duizenden keren meer vermogen vereist dan bij conventionele satellietcommunicatie. Omdat het ontvangen vermogen afneemt met het kwadraat van de afstand, moeten de satellieten extreem dicht bij elkaar vliegen. Google’s oplossing is om ze op een kilometer of minder van elkaar te positioneren, veel dichter dan welk bestaand satellietsysteem dan ook.

Formatiebeheer van dicht opeengepakte satellieten

Satellieten die op honderden meters van elkaar vliegen, vormen een unieke uitdaging voor orbitale mechanica. Google ontwikkelde numerieke en analytische modellen gebaseerd op de Hill-Clohessy-Wiltshire-vergelijkingen om te begrijpen hoe zo’n constellatie zich gedraagt onder invloed van de zwaartekracht van de aarde.

De modellen tonen aan dat satellieten op een hoogte van 650 kilometer, gegroepeerd in een cluster met een straal van één kilometer, stabiel kunnen blijven. De afstand tussen naburige satellieten oscilleert tussen ongeveer 100 en 200 meter door de invloed van de aarde. Met moderne stuwrakettechnologie zijn slechts kleine correcties nodig om de formatie te behouden.

Stralingsweerstand van AI-chips

In de ruimte worden elektronische componenten blootgesteld aan veel hogere stralingsniveaus dan op aarde. Kosmische straling kan bits omdraaien in het geheugen en op termijn de hardware beschadigen. Google testte daarom zijn nieuwste Trillium TPU’s (v6e Cloud TPU) in een protonenbundel van 67 MeV om te simuleren wat er gebeurt na jaren blootstelling aan zonnestraling.

De resultaten waren verrassend positief. Het High Bandwidth Memory-subsysteem bleek het meest kwetsbaar, maar vertoonde pas onregelmatigheden na een cumulatieve dosis van 2 krad(Si), bijna drie keer de verwachte vijfjarige missiedosis van 750 rad(Si). Tot de maximaal geteste dosis van 15 krad(Si) traden geen fatale storingen op. Dit betekent dat de TPU’s verrassend stralingsbestendig zijn voor ruimtetoepassingen.

Economische haalbaarheid en lanceerkosten

Historisch gezien waren de hoge lanceerkosten het grootste obstakel voor grootschalige ruimteprojecten. Maar de prijzen dalen snel. Google analyseerde historische en geprojecteerde lanceerprijzen en concludeert dat de kosten tegen het midden van de jaren 2030 kunnen zakken tot minder dan 200 dollar per kilogram.

Bij dat prijspunt worden de kosten voor het lanceren en exploiteren van een ruimtedatacenter vergelijkbaar met de gerapporteerde energiekosten van een equivalent aards datacenter op basis van kilowatt per jaar. Herbruikbare raketten zoals SpaceX’s Starship spelen hierin een cruciale rol. Elon Musk suggereerde zelfs dat Starlink V3-satellieten, die al beschikken over snelle laserverbindingen, opgeschaald kunnen worden voor dit doel.

Waarom de ruimte de ideale locatie is voor AI-infrastructuur

De voordelen van AI-datacenters in de ruimte gaan verder dan alleen toegang tot zonne-energie. Op aarde stuiten datacenters op steeds meer weerstand van lokale gemeenschappen. Ze zijn luidruchtig, verbruiken enorme hoeveelheden water voor koeling en belasten het elektriciteitsnet. In sommige regio’s is er simpelweg niet genoeg energie beschikbaar om aan de groeiende vraag te voldoen.

In de ruimte verdwijnen veel van deze problemen. Warmte kan direct worden afgevoerd door straling naar de koude leegte van de ruimte, zonder dat water of luchtkoeling nodig is. Dit is een enorm voordeel ten opzichte van datacenters. Bovendien heeft de bouw van ruimte-infrastructuur geen impact op andere hulpbronnen zoals land, water of lokale ecosystemen.

De schaalbaarheidspotentie is bijna onbeperkt. Terwijl aardse datacenters beperkt worden door beschikbare ruimte, energie en koeling, kan een satellietconstellatie in principe eindeloos uitgebreid worden. Google’s modulaire ontwerp maakt het mogelijk om geleidelijk satellieten toe te voegen naarmate de vraag naar rekenkracht groeit.

De eerste stappen richting een ruimtedatacenter

Google plant een leermissie in samenwerking met Planet Labs, waarbij twee prototypesatellieten begin 2027 gelanceerd worden. Elke satelliet zal vier TPU’s bevatten. Deze missie moet aantonen hoe de modellen en TPU-hardware zich gedragen in de ruimte en valideren of optische inter-satellietverbindingen geschikt zijn voor gedistribueerde machine learning-taken.

De startup Starcloud (voorheen Lumen Orbit) werkt aan een vergelijkbaar concept en lanceerde onlangs zijn eerste demonstratiesatelliet, Starcloud 1. Deze satelliet, niet veel groter dan een koelkast, bevat high-end GPU-hardware met ongeveer honderd keer meer rekenkracht dan wat tot nu toe in de ruimte gebruikt werd. Het bedrijf wil uitgebreid testen hoe AI-accelerators presteren onder omstandigheden van microzwaartekracht, straling en vacuüm.

Andere techmagnaten tonen ook interesse. Eric Schmidt, voormalig CEO van Google, nam Relativity Space over vanwege zijn belangstelling voor datacenters in de ruimte. Jeff Bezos voorspelde dat er binnen tien tot twintig jaar datacenters met een capaciteit van gigawatts in de ruimte gebouwd zullen worden. De interesse van deze zwaargewichten geeft aan dat het concept serieus genomen wordt.

De rol van Suncatcher in de toekomst van AI

Als Project Suncatcher slaagt, kan het een fundamentele verschuiving teweegbrengen in hoe we over digitale infrastructuur denken. In plaats van steeds grotere datacenters op aarde te bouwen, kunnen we een deel van de rekenkracht verplaatsen naar de ruimte. Dit zou de druk op natuurlijke hulpbronnen verminderen en tegelijk de schaal van AI-toepassingen enorm vergroten.

Een nieuwe grens voor technologie

Project Suncatcher past in Google’s traditie van gedurfde experimenten. Net zoals het bedrijf tien jaar geleden begon met het bouwen van een grootschalige quantumcomputer, lang voordat dat als realistisch werd beschouwd, verkent het nu de mogelijkheden van AI-infrastructuur in de ruimte. Het zelfrijdende auto-project dat vijftien jaar geleden begon, leidde uiteindelijk tot Waymo, dat nu miljoenen ritten per jaar verzorgt.

De komende jaren zullen cruciaal zijn. De testmissie in 2027 moet aantonen of de technologie werkt zoals verwacht. Als de lanceerkosten blijven dalen en de hardware betrouwbaar blijkt, kan tegen het midden van de jaren 2030 een eerste operationele constellatie gelanceerd worden. Dan wordt duidelijk of de ruimte inderdaad de beste plek is om AI-rekenkracht te schalen.