自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

超越GPT-4o!阿里發(fā)布最強(qiáng)開源多模態(tài)模型Qwen2-VL,支持實(shí)時(shí)視頻對(duì)話

人工智能 新聞
在多模態(tài)能力的加持下,Qwen2-VL可以實(shí)時(shí)讀取攝像頭或電腦屏幕,進(jìn)行文字形式的視頻對(duì)話。

新的最強(qiáng)開源多模態(tài)大模型來(lái)了!

阿里Qwen2大模型家族新添多模態(tài)模型Qwen2-VL,在圖像和長(zhǎng)視頻理解任務(wù)上雙雙取得了SOTA。

在具體的子類任務(wù)中,Qwen2-VL在大部分的指標(biāo)上都達(dá)到了最優(yōu),甚至超過(guò) GPT-4o等閉源模型。

圖片

在多模態(tài)能力的加持下,Qwen2-VL可以實(shí)時(shí)讀取攝像頭或電腦屏幕,進(jìn)行文字形式的視頻對(duì)話。

甚至還能作為Agent與環(huán)境進(jìn)行交互,根據(jù)任務(wù)目標(biāo)自主操控手機(jī)等設(shè)備。

此次發(fā)布的Qwen2共有2B、7B、72B三個(gè)版本,其中2B和7B版本已可下載并免費(fèi)商用(Apache 2.0),72B則通過(guò)API提供。

目前開源代碼已集成到Hugging Face Transformers、vLLM等第三方框架中。

還有不少網(wǎng)友都在狂cue一些知名大模型推理平臺(tái),如Groq、Ollama,希望能夠早日提供支持。

圖片

下面就來(lái)一睹Qwen2-VL的表現(xiàn)!

會(huì)操作機(jī)械臂的多模態(tài)大模型

利用強(qiáng)大的多模態(tài)能力,Qwen2-VL能夠操縱機(jī)械臂,進(jìn)行物體的拿取、放置等操作。

還可以化身?yè)淇伺仆婕?,根?jù)識(shí)別到的場(chǎng)上信息和提示詞描述進(jìn)行“24點(diǎn)”游戲的決策,并且取得了勝利。

圖片

還有開頭所展示的,Qwen2-VL可以根據(jù)識(shí)別到的屏幕內(nèi)容,結(jié)合用戶需求自行操作手機(jī)在網(wǎng)絡(luò)上進(jìn)行信息檢索。

當(dāng)然在這些體現(xiàn)工具調(diào)用和Agent交互能力的復(fù)雜任務(wù)背后,基礎(chǔ)能力也是不能落下。

比如圖像識(shí)別,在物體類的識(shí)別當(dāng)中,Qwen2-VL可以準(zhǔn)確地認(rèn)出花的品種。

圖片

另一類識(shí)別場(chǎng)景是文字,Qwen2-VL支持多種語(yǔ)言的文本提取。

甚至把16種語(yǔ)言混合到一張圖中,Qwen2-VL不僅能判斷各自的語(yǔ)種,也能一口氣提取出全部文本。

圖片

手寫字體和復(fù)雜的數(shù)學(xué)公式也能識(shí)別,并且上下標(biāo)這種微小細(xì)節(jié)處理得非常到位。

圖片

Qwen2-VL還支持多模態(tài)推理,代碼和數(shù)學(xué)(包括幾何)類問(wèn)題,只需要傳張圖片就能解決。

圖片

視頻方面,Qwen2-VL最長(zhǎng)可以對(duì)20分鐘以上的視頻進(jìn)行內(nèi)容分析,既支持總結(jié)也能對(duì)細(xì)節(jié)進(jìn)行提問(wèn)。

不過(guò)目前還只能分析畫面,暫不支持對(duì)聲音的處理。

圖片

同時(shí)也支持實(shí)時(shí)視頻文字對(duì)話,除了開頭展示的基于攝像頭的對(duì)話外,也可以讀取電腦屏幕,作為對(duì)話的內(nèi)容。

總之,在這些任務(wù)的背后,蘊(yùn)含著Qwen2-VL不凡的綜合實(shí)力。

多模態(tài)實(shí)力超GPT-4o

為了了解Qwen2-VL在各種任務(wù)上的綜合表現(xiàn),千問(wèn)團(tuán)隊(duì)一共從從六個(gè)方面對(duì)其視覺(jué)能力進(jìn)行了評(píng)估。

具體包括了綜合類大學(xué)試題、數(shù)學(xué)試題、文檔表格理解、通用場(chǎng)景下的問(wèn)答、視頻理解以及Agent能力這六種類型。

整體來(lái)看,Qwen2-72B的大部分的指標(biāo)上都達(dá)到了最優(yōu),甚至超過(guò)了GPT-4o和Claude3.5-Sonnet,特別是在文檔理解方面優(yōu)勢(shì)明顯。

圖片

另外在多語(yǔ)言測(cè)試中,MTVQA也在9種語(yǔ)言中的8種全面超越了GPT-4o、Claude3-Opus和Gemini Ultra這些先進(jìn)閉源模型,平均成績(jī)也是最高分。

圖片

7B版本同樣支持圖像、多圖、視頻的輸入,同時(shí)也達(dá)到了同等規(guī)模模型的SOTA水準(zhǔn)。

圖片

最小的2B版本則主要為移動(dòng)端設(shè)計(jì),但麻雀雖小,卻具備完整圖像視頻多語(yǔ)言的理解能力,特別在視頻文檔和通用場(chǎng)景問(wèn)答相較同規(guī)模模型優(yōu)勢(shì)明顯。

圖片

整體上,Qwen2-VL延續(xù)了其上一代Qwen-VL中ViT加Qwen(2)的串聯(lián)結(jié)構(gòu),在三個(gè)不同規(guī)模的模型上,Qwen2-VL都采用了600M規(guī)模大小的ViT,并且支持圖像和視頻統(tǒng)一輸入。

為了讓模型更清楚地感知視覺(jué)信息和理解視頻,Qwen2-VL新增了對(duì)原生動(dòng)態(tài)分辨率的全面支持。

與上一代模型相比,Qwen2-VL能夠處理任意分辨率的圖像輸入,不同大小圖片被轉(zhuǎn)換為動(dòng)態(tài)數(shù)量的tokens,最少只需要4個(gè)。

這種設(shè)計(jì)不僅確保了模型輸入與圖像原始信息之間的一致性,也模擬了人類視覺(jué)感知的自然方式,讓模型在圖像處理任務(wù)上更加靈活高效。

圖片

Qwen2-VL在架構(gòu)上的另一項(xiàng)創(chuàng)新,是多模態(tài)旋轉(zhuǎn)位置嵌入(M-ROPE)。

傳統(tǒng)的旋轉(zhuǎn)位置嵌入只能捕捉一維序列的位置信息,而M-ROPE通過(guò)將原始旋轉(zhuǎn)嵌入分解為代表時(shí)間、高度和寬度的三個(gè)部分。

這使得大規(guī)模語(yǔ)言模型能夠同時(shí)捕捉和整合一維文本序列、二維視覺(jué)圖像以及三維視頻的位置信息。

這一創(chuàng)新有助于提升模型的多模態(tài)處理和推理能力,能夠更好地理解和建模復(fù)雜的多模態(tài)數(shù)據(jù)。

圖片

DEMO:https://huggingface.co/spaces/Qwen/Qwen2-VL

項(xiàng)目主頁(yè):https://qwenlm.github.io/blog/qwen2-vl/
GitHub:https://github.com/QwenLM/Qwen2-VL

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2024-11-12 14:00:00

AI編程

2024-08-30 15:19:22

2024-10-06 09:00:00

AI訓(xùn)練數(shù)據(jù)

2025-01-09 09:56:34

視覺(jué)模型圖像生成

2024-09-06 13:00:29

2024-12-25 09:30:00

2024-06-11 07:03:00

大模型開源Qwen2

2024-02-01 13:03:00

AI模型

2025-03-19 09:30:00

2024-12-26 07:10:00

2024-08-09 12:50:02

2024-09-26 07:54:45

阿里視覺(jué)語(yǔ)言模型

2024-07-24 09:20:45

2024-07-08 08:25:00

2024-07-19 14:08:02

2024-06-28 18:13:05

2024-05-14 07:30:56

OpenAIGPT-4oGPT-4

2023-03-10 13:03:09

人工智能模型

2024-05-14 11:29:15

2024-05-20 08:20:00

OpenAI模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)