Na eerdere releases zoals Qwen3-Coder-Next en Qwen Image 2.0 komt nu de Qwen 3.5-familie, met twee nieuwe modellen. Het gaat om Qwen3.5-397B-A17B, het eerste open-weight model van deze generatie, en Qwen3.5-Plus, een hosted versie via Alibaba Cloud Model Studio. Beide modellen zijn toegankelijk via Qwen Chat en richten zich op sterkere reasoning, coding, agentic capabilities, multimodaal begrip en verbeterde efficiëntie.
Qwen 3.5 is meer dan een incrementele upgrade. Het model vertegenwoordigt een fundamentele verschuiving naar AI-systemen die complexe, multi-step taken met grotere autonomie aankunnen. In deze blogpost duiken we in wat Qwen 3.5 precies is, wie erachter zit, welke verbeteringen het biedt ten opzichte van vorige modellen en de concurrentie, en welke technologische vernieuwingen en aandachtspunten er zijn.
Wat is Qwen 3.5?
Alibaba heeft Qwen 3.5 gelanceerd de dag voor Chinees Nieuwjaar, het jaar van het Paard. Het model heeft 397 miljard totale parameters, maar gebruikt niet al deze parameters tegelijk. Dankzij een sparse Mixture-of-Experts (MoE) opzet activeert het slechts 17 miljard parameters per forward pass. Dit betekent dat het model een enorme capaciteit heeft, maar alleen de relevante delen wakker maakt wanneer dat nodig is, wat zorgt voor snelle en kostenefficiënte inferentie.
Een cruciaal verschil met eerdere modellen is dat Qwen 3.5 een native vision-language model is. Het is vanaf de grond opgebouwd om tekst en afbeeldingen samen te verwerken. Volgens Alibaba presteert het sterk op het gebied van reasoning, coding, agent capabilities en multimodaal begrip.
De taalondersteuning springt van 119 naar 201 talen en dialecten. Dit is relevant voor iedereen die wereldwijde applicaties bouwt en gebruikers in verschillende regio’s wil bereiken.
Parallel aan het open-weight model heeft Alibaba ook Qwen3.5-Plus aangekondigd, een hosted versie beschikbaar via Alibaba Cloud Model Studio. Deze versie biedt standaard een contextvenster van 1 miljoen tokens en bevat ingebouwde tools met adaptief tool-gebruik. Dit maakt het geschikt voor long-context workflows en agentic engineering.
Wie zit erachter?
Qwen 3.5 is ontwikkeld door het Qwen-team binnen Alibaba Cloud, onderdeel van de Chinese techgigant Alibaba Group. Alibaba heeft de afgelopen jaren flink geïnvesteerd in AI-onderzoek en -ontwikkeling, met als doel een leidende positie in te nemen in de wereldwijde AI-race. Het Qwen-team richt zich specifiek op het ontwikkelen van large language models die zowel krachtig als toegankelijk zijn.
De release van Qwen 3.5 viel samen met een drukke week waarin bijna elke grote Chinese AI-ontwikkelaar nieuwe vlaggenschipmodellen uitbracht. Dit onderstreept de competitieve dynamiek in de Chinese AI-sector en de ambitie om op gelijke voet te staan met westerse spelers zoals OpenAI, Anthropic en Google DeepMind.
Alibaba’s strategie met Qwen verschilt van de Amerikaanse concurrenten doordat het een sterke focus legt op open-source. Door Qwen3.5-397B-A17B open-source te maken, nodigt Alibaba ontwikkelaars wereldwijd uit om met het model te experimenteren, het te finetunen en het te integreren in hun eigen applicaties. Dit vergroot niet alleen de adoptie, maar stimuleert ook innovatie binnen de community.
Hoe Qwen 3.5 onder de motorkap werkt
Qwen 3.5 is interessant vanwege de manier waarop het schaal efficiënt gebruikt. Op infrastructureel niveau scheidt het model de verwerking van vision en language componenten in plaats van ze in één pipeline te forceren. Deze heterogene setup maakt het mogelijk om tekst, afbeeldingen en video-input efficiënter te verwerken. Dit resulteert in near-100% training throughput op gemengde multimodale data.
Efficiëntie wordt verder verhoogd door sparse activations, waardoor verschillende componenten parallel kunnen rekenen. Voeg daar een native FP8 pipeline aan toe, die lage precisie toepast waar veilig en hogere precisie behoudt in gevoelige lagen, en het systeem halveert het activation memory terwijl de snelheid toeneemt.
Alibaba heeft ook een schaalbaar asynchroon reinforcement learning framework gebouwd om het model continu te verfijnen. Door training en inference workloads te scheiden, verbetert het systeem de benutting van de hardware, balanceert het de load dynamisch en herstelt het snel van fouten. Technieken zoals speculative decoding, rollout replay en multi-turn rollout locking verbeteren de throughput en stabiliteit verder.
Pretraining: kracht, efficiëntie en veelzijdigheid
Qwen 3.5 is gepretraind met een duidelijke focus op drie aspecten: kracht, efficiëntie en veelzijdigheid. Het model is getraind op een aanzienlijk grotere mix van visuele en tekstdata dan Qwen 3, met sterkere multilingual, STEM en reasoning coverage. Ondanks dat het slechts 17 miljard parameters per keer activeert, matcht het model de prestaties van veel grotere trillion-parameter systemen.
Architecturaal bouwt het voort op het Qwen3-Next design, waarbij higher-sparsity MoE wordt gecombineerd met hybride attention mechanisms. Dit zorgt voor dramatisch snellere decoding speeds terwijl vergelijkbare prestaties behouden blijven.
Technologische vernieuwingen
Qwen 3.5 introduceert verschillende technologische vernieuwingen die het onderscheiden van eerdere modellen en concurrenten.
Sparse Mixture-of-Experts
De MoE-architectuur is niet nieuw, maar Qwen 3.5 implementeert het op een manier die efficiëntie maximaliseert. Door slechts 17 miljard van de 397 miljard parameters te activeren per forward pass, combineert het model de voordelen van een groot model met de snelheid van een kleiner model.
Native multimodaliteit
In tegenstelling tot modellen waarbij multimodale capabilities achteraf zijn toegevoegd, is Qwen 3.5 vanaf het begin ontworpen om tekst en visuals samen te verwerken. Dit resulteert in natuurlijker en effectiever multimodaal begrip.
FP8 pipeline
Het gebruik van FP8 (8-bit floating point) in de pipeline reduceert het geheugengebruik met ongeveer 50% zonder significante prestatieverliezen. Dit maakt het model toegankelijker voor deployment op minder krachtige hardware.
Asynchronous reinforcement learning
Het asynchrone RL-framework is een innovatie die het mogelijk maakt om het model continu te verbeteren zonder de inferentie te verstoren. Dit is vooral waardevol voor agentic workflows waar real-time aanpassing cruciaal is.
Wereldwijde taalondersteuning
De uitbreiding van 119 naar 201 talen en dialecten stelt ontwikkelaars in staat om applicaties te bouwen die genuanceerd omgaan met culturele en regionale verschillen. Dit is vooral relevant voor bedrijven die wereldwijd opereren en lokale markten willen bedienen.
Benchmark prestaties: waar staat Qwen 3.5?
Benchmarks laten zien waar een model zich onderscheidt van de rest. Op basis van Alibaba’s gepubliceerde evaluaties levert Qwen3.5-397B-A17B competitieve prestaties op het gebied van reasoning, agentic workflows, coding en multimodaal begrip.
Instruction following en reasoning
Het model scoort sterk op IFEval (84,8%) en GPQA Diamond (59,8%), wat wijst op goed begrip en gestructureerde reasoning, cruciaal voor real-world workflows.
Agentic en tool use capabilities
Qwen 3.5 presteert bijzonder goed in agent-driven taken, met scores zoals GAIA (74,8%), Tau-Bench (82,0%) en WebVoyager (82,0%). Dit versterkt de positionering voor workflow automation en tool orchestration.
Coding en developer workflows
Met scores zoals LiveCodeBench (54,8%), Aider (82,8%) en SWE-Bench Verified (50,0%) plaatst het model zich stevig in het bereik van modellen die echte coding en debugging workflows aankunnen.
Multilingual knowledge
Een score van 82,5% op MMMLU sluit aan bij de uitgebreide taalondersteuning en verbeterde knowledge retrieval.
Multimodaal en visueel reasoning
Scores zoals MathVista (76,9%), DocVQA (95,6%) en Video-MME (79,8%) benadrukken een van Qwen 3.5’s grootste sterke punten: multimodaal begrip over documenten, visuals en video.
Embodied en spatial reasoning
Een score van 82,0% op BLINK reflecteert verbeterende capabilities in real-world en embodied reasoning scenario’s.
Vergelijking met de concurrentie
Qwen 3.5 positioneert zich in een competitief landschap met modellen van OpenAI, Anthropic, Google DeepMind en andere Chinese spelers zoals DeepSeek en Baidu. Wat opvalt, is dat Qwen 3.5 geen enkele categorie domineert, maar wel sterk is op een veelheid bante toont over reasoning, agentic execution, coding en multimodaal begrip.
Deze balans is belangrijk omdat moderne AI-workloads geen single-task problemen zijn. Ze omvatten tools, documenten, afbeeldingen, code en multi-step workflows, en Qwen 3.5 lijkt precies voor die realiteit gebouwd te zijn.
Vergeleken met OpenAI’s GPT-5 en Anthropic’s Claude biedt Qwen 3.5 vergelijkbare prestaties op veel benchmarks, met als voordeel dat het open-source is. Dit geeft ontwikkelaars meer controle en flexibiliteit. Ten opzichte van andere Chinese modellen zoals DeepSeek-V3 onderscheidt Qwen 3.5 zich door de native multimodale capabilities en de brede taalondersteuning.
Aandachtspunten en uitdagingen
Ondanks de indrukwekkende capabilities zijn er enkele aandachtspunten en uitdagingen waar gebruikers en ontwikkelaars rekening mee moeten houden.
Hardware vereisten
Hoewel Qwen 3.5 efficiënter is dan veel vergelijkbare modellen, vereist het nog steeds aanzienlijke hardware resources voor deployment. De 397 miljard parameters betekenen dat je substantiële GPU-capaciteit nodig hebt, zelfs met de sparse activations.
Licentie en gebruik
Qwen 3.5 is gelicenseerd onder Apache 2.0, wat betekent dat het vrij gebruikt kan worden voor commerciële doeleinden. Dit is een groot voordeel ten opzichte van sommige concurrenten met restrictievere licenties. Toch is het belangrijk om de specifieke voorwaarden te begrijpen, vooral bij grootschalige deployment.
Benchmark versus real-world prestaties
Benchmarks geven een indicatie van capabilities, maar real-world prestaties kunnen afwijken. Het is belangrijk om het model te testen in je specifieke use case voordat je het in productie neemt.
Taalondersteuning kwaliteit
Hoewel Qwen 3.5 201 talen ondersteunt, kan de kwaliteit per taal variëren. Voor minder vertegenwoordigde talen kunnen de prestaties lager zijn dan voor veelgebruikte talen zoals Engels of Chinees.
Geopolitieke overwegingen
Als product van een Chinees bedrijf kan Qwen 3.5 onderhevig zijn aan geopolitieke spanningen en regelgeving. Organisaties moeten overwegen of dit risico’s met zich meebrengt voor hun specifieke situatie.