阿里深夜開源Qwen2.5-VL新版本,視覺推理通殺,32B比72B更聰明
就在 DeepSeek V3「小版本更新」后的幾個小時,阿里通義千問團(tuán)隊也開源了新模型。
擇日不如撞日,Qwen2.5-VL-32B-Instruct 就這么來了。
相比此前的 Qwen2.5-VL 系列模型,32B 模型有如下改進(jìn):
- 回復(fù)更符合人類主觀偏好:調(diào)整了輸出風(fēng)格,使回答更加詳細(xì)、格式更規(guī)范,并更符合人類偏好。
- 數(shù)學(xué)推理能力:復(fù)雜數(shù)學(xué)問題求解的準(zhǔn)確性顯著提升。
- 圖像細(xì)粒度理解與推理:在圖像解析、內(nèi)容識別以及視覺邏輯推導(dǎo)等任務(wù)中表現(xiàn)出更強的準(zhǔn)確性和細(xì)粒度分析能力。
對于所有用戶來說,在 Qwen Chat 上直接選中 Qwen2.5-VL-32B,即可體驗:https://chat.qwen.ai/
32B 版本的出現(xiàn),解決了「72B 對 VLM 來說太大」和「7B 不夠強大」的問題。如這位網(wǎng)友所說,32B 可能是多模態(tài) AI Agent 部署實踐中的最佳選擇:
不過團(tuán)隊也介紹了,Qwen2.5-VL-32B 在強化學(xué)習(xí)框架下優(yōu)化了主觀體驗和數(shù)學(xué)推理能力,但主要還是基于「快速思考」模式。
下一步,通義千問團(tuán)隊將聚焦于長且有效的推理過程,以突破視覺模型在處理高度復(fù)雜、多步驟視覺推理任務(wù)中的邊界。
32B 可以比 72B 更聰明
先來看看性能測試結(jié)果。
與近期的 Mistral-Small-3.1-24B、Gemma-3-27B-IT 等模型相比,Qwen2.5-VL-32B-Instruct 展現(xiàn)出了明顯的優(yōu)勢,甚至超越了更大規(guī)模的 72B 模型。
如上圖所示,在 MMMU、MMMU-Pro 和 MathVista 等多模態(tài)任務(wù)中,Qwen2.5-VL-32B-Instruct 均表現(xiàn)突出。
特別是在注重主觀用戶體驗評估的 MM-MT-Bench 基準(zhǔn)測試中,32B 模型相較于前代 Qwen2-VL-72B-Instruct 實現(xiàn)了顯著進(jìn)步。
視覺能力的進(jìn)步,已經(jīng)讓用戶們感受到了震撼:
除了在視覺能力上優(yōu)秀,Qwen2.5-VL-32B-Instruct 在純文本能力上也達(dá)到了同規(guī)模的最優(yōu)表現(xiàn)。
實例展示
或許很多人還好奇,32B 版本的升級怎么體現(xiàn)呢?
關(guān)于「回復(fù)更符合人類主觀偏好」、「數(shù)學(xué)推理能力」、「圖像細(xì)粒度理解與推理」這三個維度,我們通過幾個官方 Demo 來體會一番。
第一個問題,是關(guān)于「細(xì)粒度圖像理解與推理」:我開著一輛卡車在這條路上行駛,現(xiàn)在是 12 點,我能在 13 點之前到達(dá) 110 公里外的地方嗎?
顯然,從人類的角度去快速判斷,在限速 100 的前提下,卡車無法在 1 小時內(nèi)抵達(dá) 110 公里之外的地方。
Qwen2.5-VL-32B-Instruct 給出的答案也是「否」,但分析過程更加嚴(yán)謹(jǐn),敘述方式也是娓娓道來,我們可以做個參考:
第二個問題是「數(shù)學(xué)推理」:如圖,直線 AB、CD 交于點 O,OD 平分∠AOE,∠BOC=50.0,則∠EOB=()
答案是「80」:
第三個題目的數(shù)學(xué)推理顯然更上難度了:
模型給出的答案特別清晰,解題思路拆解得很詳細(xì):
在下面這個圖片內(nèi)容識別任務(wù)中,模型的分析過程也非常細(xì)致嚴(yán)謹(jǐn):
關(guān)于 Qwen2.5-VL-32B-Instruct 的更多信息,可參考官方博客。