Mit Qwen3.6-35B-A3B liegt ein neues Open-Source-Modell vor, das ähnliche Konkurrenten teilweise deutlich übertrifft.
Das neue Qwen3.6-35B-A3B ist ein vollständig als Open-Source verfügbares Mixture-of-Experts-Modell (MoE). Obwohl es über insgesamt 35 Milliarden Parameter verfügt, werden für die Ausführung nur 3 Milliarden Parameter aktiv genutzt. Trotz dieser Architektur bietet das Modell sehr gute agentenbasierte Programmierfähigkeiten sowie eine starke multimodale Wahrnehmung und Logik. Es unterstützt nativ sowohl multimodales Denken als auch herkömmliche Modi ohne explizite Denkprozesse und positioniert sich damit als eines der vielseitigsten offenen Modelle, die derzeit verfügbar sind.
Leistungen in Sprach- und Programmier-Benchmarks
Obwohl Qwen3.6-35B-A3B nur 3 Milliarden aktive Parameter besitzt, übertrifft es seinen direkten Vorgänger Qwen3.5-35B-A3B deutlich und konkurriert auf Augenhöhe mit wesentlich größeren, dichten Modellen wie dem Qwen3.5-27B und Google Gemma4-31B. In den SWE-bench-Auswertungen (Verified, Multilingual und Pro) sowie beim Terminal-Bench 2.0 erzielt es sehr gute Ergebnisse und lässt die Konkurrenz teilweise weit hinter sich. Auch bei allgemeinen Agenten-Aufgaben, im Bereich des MINT-Wissens (STEM) und bei logischen Schlussfolgerungen wie etwa in den Benchmarks GPQA oder AIME26 zeigt das Modell hervorragende Leistungen.

Abbildung 1: Qwen3.6-35B-A3B Benchmarks im Vergleich mit anderen Modellen
Multimodale Fähigkeiten und visuelle Intelligenz
Weil die Qwen3.6-Reihe nativ multimodal aufgebaut ist, zeigt das Modell Wahrnehmungs- und Argumentationsfähigkeiten, die weit über das hinausgehen, was man von einem Modell mit 3 Milliarden aktiven Parametern erwarten würde. In den meisten Vision-Language-Benchmarks erreicht es das Leistungsniveau von Claude Sonnet 4.5 und kann dieses bei einigen spezifischen Aufgaben sogar übertreffen. Eine seiner größten Stärken liegt in der räumlichen Intelligenz, der sogenannten Spatial Intelligence, wo es Spitzenwerte von 92,0 im RefCOCO-Benchmark und 50,8 bei ODInW13 erzielt. Starke Ergebnisse in Benchmarks wie VideoMME und MLVU belegen ein ausgezeichnetes Verständnis von Videoinhalten.
Integration und praktische Anwendung
Für Entwickler bietet das Qwen3.6-35B-A3B eine hohe Praxistauglichkeit. Es lässt sich nahtlos in beliebte Programmierassistenten wie OpenClaw, Claude Code und Qwen Code integrieren, um eine effiziente und kontextbezogene Entwicklung direkt im Terminal zu ermöglichen. Eine besonders für Agenten-Aufgaben empfohlene API-Funktion ist „preserve_thinking", mit der die Denkprozesse des Modells aus vorangegangenen Interaktionen beibehalten werden.Das Modell unterstützt zudem das Anthropic-API-Protokoll.
Qwen3.6-35B-A3B steht der Community über Plattformen wie Hugging Face und ModelScope zur Eigenverwendung bereit, kann über die Alibaba Cloud Model Studio API (als qwen3.6-flash) abgerufen oder direkt interaktiv im Qwen Studio ausprobiert werden.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
OpenAI übernimmt Finanz-App Roi
OpenAI hat die KI-gestützte persönliche Finanz-App Roi erworben. Die Übernahme reiht sich in eine Kette von sogenannten Acqui-Hires ein, die
Anthropic setzt auf Infrastruktur und hat neuen CTO
Anthropic hat mit Rahul Patil einen neuen Chief Technical Officer (CTO) ernannt. Patil, der zuvor als CTO bei Stripe
100.000x effizienter als heute: Diese deutsche Forschung macht alle KI-Rechenzentren überflüssig – doch niemand investiert!
️ Über diese Episode In dieser Folge dreht sich alles um wegweisende Entwicklungen: Von Shopping-Protokollen bei ChatGPT und
Zum Inhalt springen



