自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

阿里Qwen3問鼎開源王座!八款模型全面開放,最大杯全方位超越R1/o1,網(wǎng)友:讓開源再次偉大

人工智能
對于部署,Qwen團(tuán)隊推薦使用SGLang和vLLM等框架;而對于本地使用,則推薦Ollama、LMStudio、MLX、llama.cpp和KTransformers等。

千呼萬喚,Qwen3終于來了!

一口氣上新8大模型,通通開源。

圖片圖片

旗艦?zāi)P蚎wen3-235B-A22B全方位超越R1、o1、o3-mini,最大杯稠密模型也以32B參數(shù)量達(dá)到了可觀水平。

圖片圖片

小尺寸模型的表現(xiàn)也同樣亮眼,Qwen3-4B在數(shù)學(xué)、代碼能力上“以小博大”,和比自身大10倍模型水平相當(dāng)。

圖片圖片

本系列一共包括2個MoE模型和6個稠密模型。

  • 小MoE模型Qwen3-30B-A3B
  • MoE模型Qwen3-235B-A22B

圖片圖片

  • Qwen3-32B
  • Qwen3-14B
  • Qwen3-8B
  • Qwen3-4B
  • Qwen3-1.7B
  • Qwen3-0.6B

圖片圖片

它們均在Apache 2.0許可下開源。

經(jīng)過后訓(xùn)練的模型,例如Qwen3-30B-A3B,以及它們的預(yù)訓(xùn)練基座模型(如 Qwen3-30B-A3B-Base),現(xiàn)已在 Hugging Face、ModelScope和Kaggle等平臺上開放使用。

對于部署,Qwen團(tuán)隊推薦使用SGLang和vLLM等框架;而對于本地使用,則推薦Ollama、LMStudio、MLX、llama.cpp和KTransformers等。

網(wǎng)友:讓開源再次偉大!

圖片圖片

現(xiàn)在,在Qwen Chat(網(wǎng)頁版)和通義APP中均能試用Qwen3。

值得一提的是,Qwen3還增強(qiáng)了對MCP的支持,具備更強(qiáng)的與環(huán)境交互的能力。

輕松破解7米甘蔗過2米門

Qwen3系列的亮點(diǎn)包括代碼、數(shù)學(xué)能力,并提出了思考/非思考模式切換,提供更具性價比的模型體驗。

圖片圖片

思考模式下,模型會逐步推理;非思考模式提供更快速、近乎即時的響應(yīng)。

比如“7米長的甘蔗如何通過2米高1米寬的門?” 的問題,Qwen3-235B-A22B知道可以通過傾斜一定角度讓甘蔗過門。

圖片圖片

非思考模式等待了2秒左右即開始作答,思考模式則消耗了38912個token進(jìn)行逐步推理。

圖片圖片

36萬億token預(yù)訓(xùn)練

所以Qwen3如何而來?

首先在數(shù)據(jù)上,Qwen3預(yù)訓(xùn)練使用的數(shù)據(jù)約是Qwen2.5的2倍,達(dá)到36萬億token,涵蓋119種語言和方言。

并使用Qwen2.5處理數(shù)據(jù)。用Qwen2.5-VL提取PDF中的文本,在用Qwen2.5改進(jìn)質(zhì)量。數(shù)學(xué)和代碼方面,則利用Qwen2.5-Math和Qwen2.5-Coder來合成包括教科書、問答對以及代碼片段等多種形式的數(shù)據(jù)。

其次在預(yù)訓(xùn)練方面,共分為3個階段。

在第一階段(S1),模型在超過30萬億個 token 上進(jìn)行了預(yù)訓(xùn)練,上下文長度為4Ktoken。這一階段為模型提供了基本的語言技能和通用知識。

在第二階段(S2),通過增加知識密集型數(shù)據(jù)(如 STEM、編程和推理任務(wù))的比例來改進(jìn)數(shù)據(jù)集,隨后模型又在額外的5萬億個 token 上進(jìn)行了預(yù)訓(xùn)練。

在最后階段,使用高質(zhì)量的長上下文數(shù)據(jù)將上下文長度擴(kuò)展到 32K token,確保模型能夠有效地處理更長的輸入。

圖片

由于模型架構(gòu)的改進(jìn)、訓(xùn)練數(shù)據(jù)的增加以及更有效的訓(xùn)練方法,Qwen3 Dense基礎(chǔ)模型的整體性能與參數(shù)更多的Qwen2.5基礎(chǔ)模型相當(dāng)。

例如,Qwen3-1.7B/4B/8B/14B/32B-Base分別與 Qwen2.5-3B/7B/14B/32B/72B-Base表現(xiàn)相當(dāng)。特別是在 STEM、編碼和推理等領(lǐng)域,Qwen3 Dense基礎(chǔ)模型的表現(xiàn)甚至超過了更大規(guī)模的Qwen2.5模型。

對于Qwen3 MoE基礎(chǔ)模型,它們在僅使用10%激活參數(shù)的情況下達(dá)到了與 Qwen2.5 Dense 基礎(chǔ)模型相似的性能。這帶來了訓(xùn)練和推理成本的顯著節(jié)省。

最后在后訓(xùn)練方面。共分為4個階段:

(1)長思維鏈冷啟動(2)長思維鏈強(qiáng)化學(xué)習(xí)(3)思維模式融合(4)通用強(qiáng)化學(xué)習(xí)

圖片圖片

第一階段使用長思維鏈數(shù)據(jù)對模型進(jìn)行微調(diào),涵蓋了數(shù)學(xué)、代碼、邏輯推理和 STEM 問題等多種任務(wù)和領(lǐng)域,增強(qiáng)模型基本推理能力。

第二階段進(jìn)行大規(guī)模強(qiáng)化學(xué)習(xí),利用基于規(guī)則的獎勵來增強(qiáng)模型的探索和鉆研能力。

第三階段在一份包括長思維鏈數(shù)據(jù)和常用的指令微調(diào)數(shù)據(jù)的組合數(shù)據(jù)上對模型進(jìn)行微調(diào),將非思考模式整合到思考模型中。

第四階段則在包括指令遵循、格式遵循和 Agent 能力等在內(nèi)的 20 多個通用領(lǐng)域的任務(wù)上應(yīng)用了強(qiáng)化學(xué)習(xí),以進(jìn)一步增強(qiáng)模型的通用能力并糾正不良行為。

在博客中,Qwen團(tuán)隊表示,Qwen3的發(fā)布和開源將極大地推動大型基礎(chǔ)模型的研究與開發(fā)。

我們的目標(biāo)是為全球的研究人員、開發(fā)者和組織賦能,幫助他們利用這些前沿模型構(gòu)建創(chuàng)新解決方案。

更多細(xì)節(jié)可查看:

[1]Blog: https://qwenlm.github.io/blog/qwen3/ 

[2]GitHub: https://github.com/QwenLM/Qwen3 

[3]Hugging Face: https://huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f 

[4]ModelScope: https://modelscope.cn/collections/Qwen3-9743180bdc6b48

體驗方式:點(diǎn)擊下方鏈接或打開通義APP 

https://chat.qwen.ai/

責(zé)任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2025-02-03 14:17:27

2024-06-07 12:46:11

2025-04-10 10:02:43

2025-03-10 08:10:00

AI研究安全

2025-02-08 09:30:00

2024-11-21 14:00:00

模型AI

2025-03-31 08:00:00

AI模型測評

2024-11-29 13:57:38

2024-12-26 17:13:17

AI模型訓(xùn)練

2025-02-08 14:03:25

2025-03-05 10:21:04

DeepSeekLVLM

2018-09-30 11:53:39

開源 操作系統(tǒng)功能

2024-09-18 09:17:00

OpenAI模型開源

2025-03-03 08:17:00

DeepSeek模型數(shù)據(jù)

2025-01-10 12:58:37

2024-11-19 15:00:00

模型開源

2025-04-01 10:35:37

2024-09-19 17:44:04

2024-11-25 08:30:00

2025-03-04 17:27:05

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號