Mit Qwen3.6-35B-A3B liegt ein neues Open-Source-Modell vor, das ähnliche Konkurrenten teilweise deutlich übertrifft.
Das neue Qwen3.6-35B-A3B ist ein vollständig als Open-Source verfügbares Mixture-of-Experts-Modell (MoE). Obwohl es über insgesamt 35 Milliarden Parameter verfügt, werden für die Ausführung nur 3 Milliarden Parameter aktiv genutzt. Trotz dieser Architektur bietet das Modell sehr gute agentenbasierte Programmierfähigkeiten sowie eine starke multimodale Wahrnehmung und Logik. Es unterstützt nativ sowohl multimodales Denken als auch herkömmliche Modi ohne explizite Denkprozesse und positioniert sich damit als eines der vielseitigsten offenen Modelle, die derzeit verfügbar sind.
Leistungen in Sprach- und Programmier-Benchmarks
Obwohl Qwen3.6-35B-A3B nur 3 Milliarden aktive Parameter besitzt, übertrifft es seinen direkten Vorgänger Qwen3.5-35B-A3B deutlich und konkurriert auf Augenhöhe mit wesentlich größeren, dichten Modellen wie dem Qwen3.5-27B und Google Gemma4-31B. In den SWE-bench-Auswertungen (Verified, Multilingual und Pro) sowie beim Terminal-Bench 2.0 erzielt es sehr gute Ergebnisse und lässt die Konkurrenz teilweise weit hinter sich. Auch bei allgemeinen Agenten-Aufgaben, im Bereich des MINT-Wissens (STEM) und bei logischen Schlussfolgerungen wie etwa in den Benchmarks GPQA oder AIME26 zeigt das Modell hervorragende Leistungen.
Abbildung 1: Qwen3.6-35B-A3B Benchmarks im Vergleich mit anderen Modellen
Multimodale Fähigkeiten und visuelle Intelligenz
Weil die Qwen3.6-Reihe nativ multimodal aufgebaut ist, zeigt das Modell Wahrnehmungs- und Argumentationsfähigkeiten, die weit über das hinausgehen, was man von einem Modell mit 3 Milliarden aktiven Parametern erwarten würde. In den meisten Vision-Language-Benchmarks erreicht es das Leistungsniveau von Claude Sonnet 4.5 und kann dieses bei einigen spezifischen Aufgaben sogar übertreffen. Eine seiner größten Stärken liegt in der räumlichen Intelligenz, der sogenannten Spatial Intelligence, wo es Spitzenwerte von 92,0 im RefCOCO-Benchmark und 50,8 bei ODInW13 erzielt. Starke Ergebnisse in Benchmarks wie VideoMME und MLVU belegen ein ausgezeichnetes Verständnis von Videoinhalten.
Integration und praktische Anwendung
Für Entwickler bietet das Qwen3.6-35B-A3B eine hohe Praxistauglichkeit. Es lässt sich nahtlos in beliebte Programmierassistenten wie OpenClaw, Claude Code und Qwen Code integrieren, um eine effiziente und kontextbezogene Entwicklung direkt im Terminal zu ermöglichen. Eine besonders für Agenten-Aufgaben empfohlene API-Funktion ist „preserve_thinking", mit der die Denkprozesse des Modells aus vorangegangenen Interaktionen beibehalten werden.Das Modell unterstützt zudem das Anthropic-API-Protokoll.
Qwen3.6-35B-A3B steht der Community über Plattformen wie Hugging Face und ModelScope zur Eigenverwendung bereit, kann über die Alibaba Cloud Model Studio API (als qwen3.6-flash) abgerufen oder direkt interaktiv im Qwen Studio ausprobiert werden.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
OpenAI erweitert Codex: automer Entwickler, der im Hintergrund arbeiten kann
OpenAI hat ein umfangreiches Update für Codex veröffentlicht. Die Erweiterungen zielen darauf ab, Codex tiefer in den gesamten Software-Entwicklungsprozess zu
Claude Opus 4.7 ist da: das bisher leistungsfähigste Modell von Anthropic?
Heute wurde Claude Opus 4.7 veröffentlicht und ist ab sofort allgemein verfügbar. Es bietet insbesondere bei komplexen, langwierigen Aufgaben
Claude Mythos hackt Netzwerke mit 30% Erfolgsquote – Plus: OpenAI-Leak & das Ende der Hierarchie
️ Über diese Episode Eine außergewöhnliche Solo-Folge mit Yusuf, der diesmal ohne Christian tief in die wichtigsten KI-Entwicklungen