Tinker in een notendop
Tinker van Thinking Machines Lab is een flexibele API voor het fine-tunen van taalmodellen. Het platform laat onderzoekers en ontwikkelaars modellen afstellen met controle over data en algoritmes, terwijl de dienst de complexe gedistribueerde training afhandelt. Tinker biedt een API aan met een infrastructuur en een open bron bibliotheek, de Tinker Cookbook. Het product richt zich op frontier modellen en wil het fine tunen van large language models makkelijker en toegankelijker maken.
Productdefinitie en positionering
Tinker biedt een trainings API met primitieve bouwstenen zoals forward_backward en sample. Gebruikers orkestreren zo post-training methodes zonder de orkestratie van clusters te beheren. Thinking Machines Lab plant en verdeelt resources, en herstelt fouten tijdens runs. De dienst draait op interne clusters en training infrastructuur. Runs starten snel en op verschillende schaalgroottes.
Modellen
Het platform ondersteunt open weight modellen met uiteenlopende groottes. Thinking Machines vermeldt expliciet mixture of experts varianten zoals Qwen-235B-A22B. Wisselen van een kleine naar een grote variant vraagt volgens de aankondiging een wijziging van een enkele string in Python code. Ook Meta Llama wordt ondersteund.
Lora
Tinker gebruikt LoRA of low rank adaptation. LoRA voegt compacte aanpassingslagen toe en traint enkel die bijkomende parameters. De methode reduceert compute, versnelt fine-tuning en drukt kosten. Meerdere teams kunnen de basisparameters van hetzelfde model delen en enkel hun LoRA adapters trainen. Dat vermijdt duplicatie en verhoogt cluster efficiëntie. Thinking Machines benut dezelfde pool compute voor meerdere runs.
Api controle en cookbook
De API geeft controle op de trainingslus. Dat maakt uiteenlopende post-training recepten mogelijk, van supervised fine-tuning tot reinforcement learning. De Tinker Cookbook biedt extra mogelijkheden voor implementaties bovenop de API.
Infrastructuur en betrouwbaarheid
Thinking Machines beheert scheduling, resource allocatie en failure recovery. De dienst automatiseert hardware toewijzing aan workloads en voert herstel uit bij fouten tijdens de fine-tuning. Dat adresseert een klassieke bottleneck bij grootschalige trainingsjobs. Gebruikers focussen op data en algoritmes. De provider draagt de last van cluster stabiliteit en throughput.
Supervised learning en reinforcement learning
Tinker ondersteunt supervised learning met gelabelde data en reinforcement learning met feedback op modeluitvoer. Gebruikers kunnen de gefinetunede resultaten kunnen downloaden en lokaal of op eigen infrastructuur installeren. John Schulman kadert de ontwerpkeuze als volgt: “We abstract away the distributed training details, but we still give people full control over the data and the algorithms.”
Use cases
Thinking Machines noemt onderzoeksgroepen aan Princeton, Stanford, Berkeley en Redwood Research als vroege gebruikers. Redwood Research zet reinforcement learning in om modellen code met backdoors te laten schrijven. Die casus illustreert kracht en risico van gerichte fine-tuning. De API geeft toegang tot capaciteiten die via een inferentie API niet zichtbaar zijn, aldus de betrokken onderzoeker.
Toegang, prijs en governance
Tinker loopt in een private beta voor onderzoekers en ontwikkelaars. Thinking Machines laat gebruikers gratis starten en kondigt later gebruiksgebaseerde prijzen aan. Het bedrijf screent toegang tot de API en voorziet plannen voor geautomatiseerde systemen tegen misbruik.
Team, herkomst en financiering
Mira Murati leidde Thinking Machines Lab na haar periode als CTO en kortstondige CEO bij OpenAI. Co oprichters zijn onder meer John Schulman, Barret Zoph, Lilian Weng, Andrew Tulloch en Luke Metz. Thinking %achines Lab is opgericht in februari 2025. Het bedrijf haalde tijdens een financieringsronde in juli 2 miljard dollar op. Investeerders zoals Nvidia, AMD en Cisco waardeerden het bedrijf op 12 miljard dollar.
Plaats in het toolinglandschap
Er bestaan alternatieven voor fine-tuning met reinforcement learning, zoals VERL en SkyRL. Een beta gebruiker noemt Tinker een sterke mix van abstractie en afstelbaarheid. Tinker onderscheid zich door de combinatie van managed training, low-level API primitives, LoRA efficiëntie en een open referentiebibliotheek. Tinker bundelt infrastructuur, receptuur en controle in een enkele dienst. Die bundeling reduceert integratiewerk voor teams die van prototype naar grotere trainingsruns schakelen.
Openheid
Thinking Machines positioneert Tinker als een hefboom voor open modellen. Frontier labs zoals OpenAI in de Verenigde Staten worden steeds meer gesloten, terwijl China meer open source frontier modellen telt. Murati heeft de ambitie om de kloof tussen frontier labs en academische onderzoek te verkleinen. Toegang tot fine-tuning met RL en moderne recepten ondersteunt dat doel. De mogelijkheid om het getunede model te downloaden versterkt portabiliteit en experimenteervrijheid.
Lora als gevestigde techniek
LoRA is geen nieuwe uitvinding. Het werd beschreven in de paper LoRA Low Rank Adaptation of Large Language Models van Hu en collega’s. De markt telt intussen varianten en verschillende implementaties. Tinker onderscheidt zich niet door LoRA als techniek, maar door de integratie van LoRA in een schaalbare, fouttolerante dienst met programmeerbare primitives en gedeelde compute. Dat maakt dezelfde clusters bruikbaar voor vele parallelle runs en drukt de kost per experiment.
Wat maakt tinker anders
- controle plus abstractie: lage niveau toegang via forward_backward en sample met minder complexiteit voor gedistribueerde training.
- efficiëntie via lora: adapters trainen in plaats van volledige parameters, compute delen tussen teams en runs.
- recepten: een open Tinker Cookbook met moderne post-training methodes en workflows.
- portabiliteit: getunede modellen downloaden en buiten het platform draaien.
- ecosysteem: vroege adoptie bij universiteiten en AI safety labs. Een ervaring team in RL fine-tuning (OpenAI).
- open model: ondersteuning voor Llama en Qwen.
Verwachtingen
Forbes wijst op hoge verwachtingen rond het eerste product van Thinking Machines. De dienst levert een nuttige infrastructuur voor fine-tuning met LoRA, maar geen nieuwe trainingsparadigma. De meerwaarde zit in uitvoering en toegankelijkheid. Die focus adresseert een structurele frictie rond gedistribueerde training, niet de fundamentele vraag of schaal alleen volstaat. Tinker sluit aan bij een strategie die fine-tuning op open modellen versnelt en operationaliseert.
Wat dit betekent
Tinker verlaagt de drempel om frontier modellen domeinspecifiek af te stemmen met SL en RL. Onderzoekers en teams testen sneller hypotheses en itereren op datasets en beloningsfuncties. Organisaties die open modellen prefereren krijgen een pad naar maatwerk zonder eigen clusterbeheer.
Tinker zet een trainingsdienst in de markt met low-level controle, LoRA efficiëntie en een open receptenboek. Het product differentieert op integratie, niet op een nieuwe techniek. De dienst verbindt open modellen zoals Llama en Qwen aan reproduceerbare workflows op schaal en laat getunede artefacten exporteren. Met financiering van 2 miljard dollar en een team van reinforced learning experts levert Thinking Machines een eerste product af dat fine-tuning van LLM’s toegankelijk maakt.