阿里全新推理模型媲美DeepSeek R1:參數(shù)僅為后者的1/21
阿里巴巴的Qwen團(tuán)隊(duì)近日正式推出了其最新研究成果——QwQ-32B大語言模型。這款模型擁有320億參數(shù),卻能在性能上與擁有6710億參數(shù)的DeepSeek R1相媲美,展現(xiàn)出極高的效率和優(yōu)化能力。
QwQ-32B的核心優(yōu)勢(shì)在于其通過強(qiáng)化學(xué)習(xí)實(shí)現(xiàn)了性能的顯著提升,僅用DeepSeek R1約1/21的參數(shù)量便達(dá)到了類似的推理能力。此外,阿里還在模型中集成了與Agent相關(guān)的能力,使其能夠進(jìn)行批判性思考,并根據(jù)環(huán)境反饋動(dòng)態(tài)調(diào)整推理過程。這種能力使得QwQ-32B不僅是一個(gè)語言模型,更是一個(gè)具備智能決策能力的推理系統(tǒng)。
在一系列基準(zhǔn)測(cè)試中,QwQ-32B展現(xiàn)了強(qiáng)大的數(shù)學(xué)推理、編程能力和通用能力。在數(shù)學(xué)能力測(cè)試的AIME24評(píng)測(cè)集以及代碼能力測(cè)試的LiveCodeBench中,QwQ-32B的表現(xiàn)與DeepSeek R1相當(dāng),甚至在某些方面超越了后者。此外,在由Meta首席科學(xué)家楊立昆領(lǐng)銜的LiveBench、谷歌提出的指令遵循能力評(píng)測(cè)集IFEval,以及加州大學(xué)伯克利分校提出的BFCL測(cè)試中,QwQ-32B均取得了優(yōu)異的成績(jī),超越了DeepSeek R1。
下載.jpg
值得注意的是,QwQ-32B已經(jīng)在Hugging Face和ModelScope上開源,用戶可以通過Qwen Chat直接體驗(yàn)這一模型的強(qiáng)大能力。
分析認(rèn)為,這一成果不僅展示了阿里在大語言模型領(lǐng)域的技術(shù)實(shí)力,也表明了其在推理模型優(yōu)化方面的領(lǐng)先地位。QwQ-32B的推出,為人工智能領(lǐng)域的研究和應(yīng)用提供了新的思路和方向,尤其是在如何通過更少的參數(shù)實(shí)現(xiàn)更高效推理方面,為行業(yè)樹立了新的標(biāo)桿。