自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Gemini視頻推理遙遙領(lǐng)先GPT-4o,Jeff Dean連續(xù)轉(zhuǎn)發(fā)三次,首個(gè)視頻多模態(tài)基準(zhǔn)Video-MME來(lái)了

人工智能 新聞
多模態(tài)大模型視頻分析綜合評(píng)估基準(zhǔn)Video-MME,全面評(píng)估多模態(tài)大模型的綜合視頻理解能力,填補(bǔ)了這一領(lǐng)域的空白。

OpenAI和谷歌接連兩場(chǎng)發(fā)布會(huì),把AI視頻推理卷到新高度。

但業(yè)界還缺少可以全面評(píng)估大模型視頻推理能力的基準(zhǔn)。

終于,多模態(tài)大模型視頻分析綜合評(píng)估基準(zhǔn)Video-MME全面評(píng)估多模態(tài)大模型的綜合視頻理解能力,填補(bǔ)了這一領(lǐng)域的空白。

Gemini 1.5 Pro在這份榜單中遙遙領(lǐng)先,顯示出在視頻理解領(lǐng)域的“霸主”地位。Video-MME一經(jīng)推出,被谷歌首席科學(xué)家Jeff Dean連續(xù)轉(zhuǎn)發(fā)了三次。

圖片

GPT-4o、谷歌Gemini 1.5 Pro標(biāo)榜的視頻推理能力終于在全新的、更復(fù)雜的多模態(tài)基準(zhǔn)Video-MME上首次得到了驗(yàn)證。

同時(shí),各大公司以及研究機(jī)構(gòu),例如NVIDIA、ByteDance等模型也加入了混戰(zhàn)。

圖片

Video-MME由中科大、廈大、港中文等高校聯(lián)合推出,代碼和數(shù)據(jù)集均已開源。

圖片

全人工標(biāo)注高質(zhì)量數(shù)據(jù)集

該基準(zhǔn)采取全人工標(biāo)注,具有區(qū)別于現(xiàn)有數(shù)據(jù)集的顯著特點(diǎn)。在以下的例子中,準(zhǔn)確回答該問(wèn)題需要同時(shí)從視覺、字幕以及音頻中同時(shí)獲取信息,有效信息直接橫跨30分鐘的間隔:

圖片

Video-MME具有以下顯著特點(diǎn):

時(shí)間維度的廣泛性:視頻時(shí)長(zhǎng)從11秒到1小時(shí)不等,涵蓋短(<2分鐘)、中(4-15分鐘)、長(zhǎng)(30-60分鐘)三種不同的視頻時(shí)長(zhǎng),全面評(píng)估模型在不同時(shí)間跨度下的上下文多模態(tài)理解能力;

數(shù)據(jù)模態(tài)的豐富性:除了視頻幀,Video-MME還整合了字幕和音頻模態(tài)輸入,全面評(píng)估大模型的多模態(tài)處理能力;

視頻類型的多樣性:覆蓋了知識(shí)、影視、體育、藝術(shù)、生活記錄和多語(yǔ)言6個(gè)主要領(lǐng)域,涉及30個(gè)細(xì)粒度子領(lǐng)域;

注釋質(zhì)量的高標(biāo)準(zhǔn):900個(gè)視頻,共254小時(shí)的內(nèi)容由具備大模型背景的專業(yè)人員手動(dòng)標(biāo)注與驗(yàn)證,產(chǎn)生了2,700個(gè)問(wèn)答對(duì)。問(wèn)題類型涵蓋感知、認(rèn)知和總結(jié)概括等12種類型;

圖片

可靠的有效時(shí)長(zhǎng) (Certificate Length準(zhǔn)確回答問(wèn)題所需的最短時(shí)長(zhǎng)):對(duì)于短視頻、中視頻和長(zhǎng)視頻,Video-MME數(shù)據(jù)集的有效時(shí)長(zhǎng)中位數(shù)分別為26.0秒、164.7秒和890.7秒,要求模型消化更長(zhǎng)的視頻內(nèi)容才能回答問(wèn)題

圖片

全面的實(shí)驗(yàn)評(píng)估:文章選取了6種代表性的開源視頻語(yǔ)言模型以及閉源模型Gemini 1.5 Pro和GPT-4V/o進(jìn)行全面的實(shí)驗(yàn)分析。同時(shí)文章還選取了基于圖片的多模態(tài)大模型進(jìn)行評(píng)測(cè)(泛化到多圖輸入),證明其同時(shí)適用于圖片&視頻多模態(tài)大模型。

圖片

文章選取了多種代表性的開源視頻多模態(tài)大模型,包括ST-LLM、VideoChat2-Mistral、Chat-UniVi-V1.5、LLaVA-NeXT-Video和VILA-1.5,以及閉源模型Gemini和GPT-4V/o 。同時(shí),基于圖片的多模態(tài)大模型包括Qwen-VL-Chat、Qwen-VL-Max和InternVL-Chat-V1.5。

在商業(yè)模型中,Gemini 1.5 Pro在視頻理解方面表現(xiàn)突出,在加以字幕輔助的情況下以81.3%的準(zhǔn)確率領(lǐng)先,并在與GPT-4V和GPT-o的對(duì)比中分別超出18%和4.1%。

盡管隨著視頻時(shí)長(zhǎng)增加,其表現(xiàn)略有下降,但在長(zhǎng)視頻上的表現(xiàn)(加字幕)優(yōu)于所有開源模型在短視頻上的表現(xiàn)。

同時(shí),Gemini 1.5 Pro還支持音頻模態(tài)的輸入,模態(tài)支持的更廣。而在開源模型中,來(lái)自NVIDIA的VILA-1.5以59.4%的準(zhǔn)確率表現(xiàn)最佳。然而,相比Gemini 1.5 Pro,VILA-1.5在計(jì)數(shù)問(wèn)題、動(dòng)作識(shí)別和時(shí)間感知方面仍然存在顯著差距。

圖片

同時(shí),隨著視頻時(shí)長(zhǎng)的增加,所有模型的表現(xiàn)均呈現(xiàn)明顯的下降趨勢(shì),這也說(shuō)明面對(duì)更長(zhǎng)的上下文記憶以及更為復(fù)雜的任務(wù)時(shí)模型還有很大的提升空間。此外,實(shí)驗(yàn)還揭示了字幕和音頻信息能顯著增強(qiáng)視頻理解能力,尤其是對(duì)于長(zhǎng)視頻的理解。

圖片

在三十種不同類型的視頻上,Gemini 1.5 Pro展現(xiàn)出不同的性能。例如,有的任務(wù)對(duì)字幕和語(yǔ)音的依賴程度更高,如Basketball的長(zhǎng)視頻,加上字幕和語(yǔ)音能夠顯著提升性能。詳細(xì)的實(shí)驗(yàn)結(jié)果請(qǐng)參照論文原文。

綜合實(shí)驗(yàn)結(jié)果可以看出,當(dāng)前的多模態(tài)大模型在視頻理解,尤其是長(zhǎng)視頻理解方向仍然有很長(zhǎng)進(jìn)步空間,一方面是要提升模型的多模態(tài)長(zhǎng)上下文理解能力,Gemini 1.5 Pro最高支持百萬(wàn)長(zhǎng)度的上下文窗口,這是其表現(xiàn)優(yōu)異的依仗,另一方面也亟需構(gòu)建相應(yīng)的高質(zhì)量長(zhǎng)視頻理解數(shù)據(jù)集,這方面當(dāng)下仍處于空白。

論文鏈接:https://arxiv.org/pdf/2405.21075
項(xiàng)目主頁(yè):https://video-mme.github.io
項(xiàng)目倉(cāng)庫(kù):https://github.com/BradyFU/Video-MME

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2024-05-20 08:20:00

OpenAI模型

2025-01-02 11:01:45

2024-06-21 13:04:43

2024-06-28 18:13:05

2025-04-03 10:21:32

2024-07-11 11:53:56

2023-12-08 13:07:49

GeminiGPT-4人工智能

2024-08-30 14:35:00

2024-10-22 18:05:59

2025-04-16 15:28:31

模型AI數(shù)據(jù)

2025-02-28 09:32:00

2025-02-18 12:30:00

2024-06-27 12:45:30

2024-05-14 19:16:52

ChatGPTGPT-4oOpenAI

2024-08-08 13:04:28

2024-12-26 07:10:00

2024-12-18 13:24:30

谷歌AI大語(yǔ)言模型

2024-07-12 12:50:46

2024-09-29 13:07:16

2024-11-22 12:39:56

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)