- Qwen3 är den senaste modellen i Qwen-familjen och erbjuder konkurrenskraftiga resultat jämfört med andra toppmodeller.
- Qwen3-235B-A22B och Qwen3-30B-A3B är två MoE-modeller med öppna vikter.
- Qwen3-modellerna stöder två problemlösningslägen: tänkande och icke-tänkande.
- Modellen har en flexibel ”tänkande price range” för att balansera kostnadseffektivitet och inferenskvalitet.
Alibaba lanserar nu sin senaste flaggskepps-AI-modell, Qwen 3, som utlovar att överträffa konkurrenter såsom OpenAI:s modeller och DeepSeek. Qwen 3 hävdas ha en hybridarkitektur som möjliggör snabba svar på korta frågor samtidigt som den kan resonera mer djupgående för komplexa frågor. Denna modell finns i flera storlekar och konfigurationer med upp until 235 miljarder parametrar vilket gör den konkurrenskraftig inom flera områden som kodning, matematik och allmän kapacitet.
Imponerande modellstorlekar och arkitektur
Qwen 3-serien omfattar åtta olika modeller, inklusive intercourse täta modeller och två MoE-modeller. Flaggskeppsmodellen, Qwen3-235B-A22B, har totalt 235 miljarder parametrar med 22 miljarder aktiverade parametrar. Den mindre MoE-modellen, Qwen3-30B-A3B, har 30 miljarder parametrar med endast 3 miljarder aktiverade parametrar.
De intercourse täta modellerna kommer i storlekarna 0,6B, 1,7B, 4B, 8B, 14B och 32B, vilket ger utvecklare stor flexibilitet beroende på deras specifika behov och resursbegränsningar. Samtliga modeller är tillgängliga underneath Apache 2.0-licensen, vilket gör dem öppna för både forskning och kommersiell användning.
Hybridtänkande:
En av de mest innovativa aspekterna av Qwen 3 är dess hybridtänkande-funktion. Modellerna stöder två distinkta lägen:
- Tänkandeläge: Här tar modellen tid på sig att resonera steg för steg innan den levererar ett slutgiltigt svar. Detta är idealiskt för komplexa drawback som kräver djupare tankeprocesser.
- Icke-tänkandeläge: I detta läge ger modellen snabba, nästan omedelbara svar, lämpliga för enklare frågor där hastighet är viktigare än djup.
Se Qwen 3 i aktion
Här är en demonstration av Qwen 3:s förmågor: https://huggingface.co/spaces/Qwen/Qwen3-Demo

Tillgänglighet och distribution
Modellerna är nu tillgängliga på plattformar som Hugging Face, ModelScope och Kaggle. För distribution rekommenderar Alibaba ramverk som SGLang och vLLM. För lokal användning rekommenderas verktyg som Ollama, LMStudio, MLX, llama.cpp och KTransformers.