阿里Qwen3問鼎開源王座!八款模型全面開放,最大杯全方位超越R1/o1,網(wǎng)友:讓開源再次偉大
千呼萬喚,Qwen3終于來了!
一口氣上新8大模型,通通開源。
圖片
旗艦?zāi)P蚎wen3-235B-A22B全方位超越R1、o1、o3-mini,最大杯稠密模型也以32B參數(shù)量達(dá)到了可觀水平。
圖片
小尺寸模型的表現(xiàn)也同樣亮眼,Qwen3-4B在數(shù)學(xué)、代碼能力上“以小博大”,和比自身大10倍模型水平相當(dāng)。
圖片
本系列一共包括2個MoE模型和6個稠密模型。
- 小MoE模型Qwen3-30B-A3B
- MoE模型Qwen3-235B-A22B
圖片
- Qwen3-32B
- Qwen3-14B
- Qwen3-8B
- Qwen3-4B
- Qwen3-1.7B
- Qwen3-0.6B
圖片
它們均在Apache 2.0許可下開源。
經(jīng)過后訓(xùn)練的模型,例如Qwen3-30B-A3B,以及它們的預(yù)訓(xùn)練基座模型(如 Qwen3-30B-A3B-Base),現(xiàn)已在 Hugging Face、ModelScope和Kaggle等平臺上開放使用。
對于部署,Qwen團(tuán)隊推薦使用SGLang和vLLM等框架;而對于本地使用,則推薦Ollama、LMStudio、MLX、llama.cpp和KTransformers等。
網(wǎng)友:讓開源再次偉大!
圖片
現(xiàn)在,在Qwen Chat(網(wǎng)頁版)和通義APP中均能試用Qwen3。
值得一提的是,Qwen3還增強(qiáng)了對MCP的支持,具備更強(qiáng)的與環(huán)境交互的能力。
輕松破解7米甘蔗過2米門
Qwen3系列的亮點(diǎn)包括代碼、數(shù)學(xué)能力,并提出了思考/非思考模式切換,提供更具性價比的模型體驗。
圖片
思考模式下,模型會逐步推理;非思考模式提供更快速、近乎即時的響應(yīng)。
比如“7米長的甘蔗如何通過2米高1米寬的門?” 的問題,Qwen3-235B-A22B知道可以通過傾斜一定角度讓甘蔗過門。
圖片
非思考模式等待了2秒左右即開始作答,思考模式則消耗了38912個token進(jìn)行逐步推理。
圖片
36萬億token預(yù)訓(xùn)練
所以Qwen3如何而來?
首先在數(shù)據(jù)上,Qwen3預(yù)訓(xùn)練使用的數(shù)據(jù)約是Qwen2.5的2倍,達(dá)到36萬億token,涵蓋119種語言和方言。
并使用Qwen2.5處理數(shù)據(jù)。用Qwen2.5-VL提取PDF中的文本,在用Qwen2.5改進(jìn)質(zhì)量。數(shù)學(xué)和代碼方面,則利用Qwen2.5-Math和Qwen2.5-Coder來合成包括教科書、問答對以及代碼片段等多種形式的數(shù)據(jù)。
其次在預(yù)訓(xùn)練方面,共分為3個階段。
在第一階段(S1),模型在超過30萬億個 token 上進(jìn)行了預(yù)訓(xùn)練,上下文長度為4Ktoken。這一階段為模型提供了基本的語言技能和通用知識。
在第二階段(S2),通過增加知識密集型數(shù)據(jù)(如 STEM、編程和推理任務(wù))的比例來改進(jìn)數(shù)據(jù)集,隨后模型又在額外的5萬億個 token 上進(jìn)行了預(yù)訓(xùn)練。
在最后階段,使用高質(zhì)量的長上下文數(shù)據(jù)將上下文長度擴(kuò)展到 32K token,確保模型能夠有效地處理更長的輸入。
由于模型架構(gòu)的改進(jìn)、訓(xùn)練數(shù)據(jù)的增加以及更有效的訓(xùn)練方法,Qwen3 Dense基礎(chǔ)模型的整體性能與參數(shù)更多的Qwen2.5基礎(chǔ)模型相當(dāng)。
例如,Qwen3-1.7B/4B/8B/14B/32B-Base分別與 Qwen2.5-3B/7B/14B/32B/72B-Base表現(xiàn)相當(dāng)。特別是在 STEM、編碼和推理等領(lǐng)域,Qwen3 Dense基礎(chǔ)模型的表現(xiàn)甚至超過了更大規(guī)模的Qwen2.5模型。
對于Qwen3 MoE基礎(chǔ)模型,它們在僅使用10%激活參數(shù)的情況下達(dá)到了與 Qwen2.5 Dense 基礎(chǔ)模型相似的性能。這帶來了訓(xùn)練和推理成本的顯著節(jié)省。
最后在后訓(xùn)練方面。共分為4個階段:
(1)長思維鏈冷啟動(2)長思維鏈強(qiáng)化學(xué)習(xí)(3)思維模式融合(4)通用強(qiáng)化學(xué)習(xí)
圖片
第一階段使用長思維鏈數(shù)據(jù)對模型進(jìn)行微調(diào),涵蓋了數(shù)學(xué)、代碼、邏輯推理和 STEM 問題等多種任務(wù)和領(lǐng)域,增強(qiáng)模型基本推理能力。
第二階段進(jìn)行大規(guī)模強(qiáng)化學(xué)習(xí),利用基于規(guī)則的獎勵來增強(qiáng)模型的探索和鉆研能力。
第三階段在一份包括長思維鏈數(shù)據(jù)和常用的指令微調(diào)數(shù)據(jù)的組合數(shù)據(jù)上對模型進(jìn)行微調(diào),將非思考模式整合到思考模型中。
第四階段則在包括指令遵循、格式遵循和 Agent 能力等在內(nèi)的 20 多個通用領(lǐng)域的任務(wù)上應(yīng)用了強(qiáng)化學(xué)習(xí),以進(jìn)一步增強(qiáng)模型的通用能力并糾正不良行為。
在博客中,Qwen團(tuán)隊表示,Qwen3的發(fā)布和開源將極大地推動大型基礎(chǔ)模型的研究與開發(fā)。
我們的目標(biāo)是為全球的研究人員、開發(fā)者和組織賦能,幫助他們利用這些前沿模型構(gòu)建創(chuàng)新解決方案。
更多細(xì)節(jié)可查看:
[1]Blog: https://qwenlm.github.io/blog/qwen3/
[2]GitHub: https://github.com/QwenLM/Qwen3
[3]Hugging Face: https://huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f
[4]ModelScope: https://modelscope.cn/collections/Qwen3-9743180bdc6b48
體驗方式:點(diǎn)擊下方鏈接或打開通義APP