自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

給視頻模型安上快慢兩只眼睛,蘋果免訓(xùn)練新方法秒了一切SOTA

人工智能 新聞
蘋果研究人員提出了 SlowFast-LLaVA(簡稱 SF-LLaVA)。這一模型基于字節(jié)團(tuán)隊開發(fā)的 LLaVA-NeXT 架構(gòu),無需額外微調(diào),開箱即用。

自從 Sora 發(fā)布以來,AI 視頻生成領(lǐng)域變得更加「熱鬧」了起來。過去幾個月,我們見證了即夢、Runway Gen-3、Luma AI、快手可靈輪番炸場。

和以往一眼就能識破是 AI 生成的模型不太一樣,這批視頻大模型可能是我們所見過的「最好的一屆」。

然而,視頻大語言模型(LLM)驚艷表現(xiàn)的背后離不開龐大且經(jīng)過精細(xì)標(biāo)注的視頻數(shù)據(jù)集,這需要花費(fèi)相當(dāng)高的成本。近期研究領(lǐng)域也涌現(xiàn)了一批無需額外訓(xùn)練的創(chuàng)新方法:采用訓(xùn)練好的圖像大語言模型,直接用于視頻任務(wù)的處理,這樣就繞開了「昂貴」的訓(xùn)練過程。

此外,現(xiàn)有大多視頻 LLM 存在兩個主要缺點(diǎn):(1)它們只能處理有限幀數(shù)的視頻輸入,這使得模型難以捕捉視頻中細(xì)微的空間和時間內(nèi)容;(2)它們?nèi)鄙贂r間建模設(shè)計,而是簡單地將視頻特征輸入到 LLM 中,完全依賴于 LLM 對運(yùn)動的建模能力。

針對以上問題,蘋果研究人員提出了 SlowFast-LLaVA(簡稱 SF-LLaVA)。這一模型基于字節(jié)團(tuán)隊開發(fā)的 LLaVA-NeXT 架構(gòu),無需額外微調(diào),開箱即用。研究團(tuán)隊受在動作識別領(lǐng)域大獲成功的雙流網(wǎng)絡(luò)的啟發(fā),為視頻 LLM 設(shè)計了一套新穎的 SlowFast 輸入機(jī)制。

簡單來說,SF-LLaVA 將通過兩種不同的觀察速度(Slow 和 Fast)來理解視頻中的細(xì)節(jié)和運(yùn)動。

  • 慢速路徑:低幀率提取特征,同時盡可能多地保留空間細(xì)節(jié)(例如每 8 幀保留 24×24 個 token)
  • 快速路徑:高幀率運(yùn)行,但用較大的空間池化步長降低視頻的分辨率,以模擬更大的時間上下文,更專注于理解動作的連貫性

這相當(dāng)于模型擁有兩只「眼睛」:一只慢慢看,注意看細(xì)節(jié);另一只快速看,注意看動作。這樣就解決了大多現(xiàn)有的視頻 LLM 的痛點(diǎn),既能捕捉到詳細(xì)的空間語義,又能捕捉到更長的時間上下文。

圖片

論文鏈接:https://arxiv.org/pdf/2407.15841

實(shí)驗(yàn)結(jié)果顯示,SF-LLaVA 在所有基準(zhǔn)測試中均以顯著的優(yōu)勢超越了現(xiàn)有免訓(xùn)練方法。與精心微調(diào)的 SFT 模型相比,SF-LLaVA 能達(dá)到相同性能,甚至更好。

圖片

模型架構(gòu)

如下圖所示,SF-LLaVA 遵循標(biāo)準(zhǔn)的免訓(xùn)練視頻 LLM 流程。它以視頻 V 和問題 Q 作為輸入,輸出對應(yīng)的答案 A。

圖片

對于輸入,要從每個視頻任意大小和長度中均勻采樣 N 幀,I = {I_1, I_2, ..., I_N},不需要對選取的視頻幀進(jìn)行特別的組合或排列。以幀為單位視獨(dú)立提取頻特征為 F_v ∈ R^N×H×W,其中 H 和 W 分別是幀特征的高度和寬度。

下一步需要在慢速和快速兩個路徑中進(jìn)一步處理 F_v,并將它們結(jié)合起來作為有效的視頻表示。慢速路徑從 F_v 中均勻采樣圖片的幀特征,其中圖片。

此前有研究發(fā)現(xiàn),在空間維度上適當(dāng)池化可以提高視頻生成的效率和魯棒性。因此,研究團(tuán)隊在 F_v 上應(yīng)用步長為 σ_h×σ_w 的池化過程,得到最終特征:圖片,其中圖片,圖片。慢速路徑的整個過程如公式 2 所示。

圖片

快速路徑保留 F_v 中的所有幀特征,以盡可能多地捕捉視頻的長程時間上下文。具體來說,研究團(tuán)隊使用空間池化步長圖片對 F_v 進(jìn)行激進(jìn)的下采樣,得到最終特征圖片。研究團(tuán)隊設(shè)置圖片、圖片,使得快速路徑能專注于模擬時間上下文和運(yùn)動線索。慢速路徑的整個過程如公式 3 所示。

圖片

最后,獲得聚合的視頻特征:圖片,其中 flat 和 [, ] 分別表示展平和連接操作。如表達(dá)式所示,圖片不需要任何特殊的 token 來分隔慢速和快速路徑。SF-LLaVA 總共使用圖片個視頻 token。視頻的視覺特征圖片將和文本信息(比如用戶提出的問題)將被組合在一起,作為輸入數(shù)據(jù)送入大型語言模型(LLM)進(jìn)行處理。

SlowFast 流程如公式 4 所示。

圖片

實(shí)驗(yàn)結(jié)果

研究團(tuán)隊對 SF-LLaVA 進(jìn)行了全面的性能評估,將其與當(dāng)前 SOTA 免訓(xùn)練模型(如 IG-VLM 和 LLoVi)在多個視頻問答任務(wù)中進(jìn)行了對比。此外,他們還將其與經(jīng)過視頻數(shù)據(jù)集監(jiān)督微調(diào)(SFT)的視頻 LLM,例如 VideoLLaVA 和 PLLaVA 進(jìn)行了比較。

開放式視頻問答

如下表所示,在開放式視頻問答任務(wù)中,SF-LLaVA 在所有基準(zhǔn)測試中都比現(xiàn)有的免訓(xùn)練方法表現(xiàn)得更好。具體來說,當(dāng)分別搭載 7B 和 34B 參數(shù)規(guī)模的 LLM 時,SF-LLaVA 分別在 MSRVTT-QA 上比 IGVLM 高出 2.1% 和 5.0%,在 TGIF-QA 上高出 5.7% 和 1.5%,在 ActivityNet-QA 上高出 2.0% 和 0.8%。

即使與經(jīng)過微調(diào)的 SFT 方法相比,SF-LLaVA 在大多數(shù)基準(zhǔn)測試中也展現(xiàn)了可比的性能,只有在 ActivityNet-QA 這一基準(zhǔn)上,PLLaVA 和 LLaVA-NeXT-VideoDPO 略勝一籌。

圖片

多項選擇視頻問答

從下表中可見,在所有基準(zhǔn)測試中,SF-LLaVA 在多項選擇視頻問答的表現(xiàn)都優(yōu)于其他免訓(xùn)練方法。在要求復(fù)雜長時序推理的 EgoSchema 數(shù)據(jù)集中,SF-LLaVA7B 和 34B 的版本相較 IG-VLM 模型的得分分別高出 11.4% 和 2.2%。

雖然 VideoTree 在基準(zhǔn)測試中領(lǐng)先,因?yàn)樗腔?GPT-4 的專有模型,因而性能遠(yuǎn)高于開源 LLM。與 SFT 方法相比,SF-LLaVA 34B 模型在 EgoSchema 上也取得了更好的結(jié)果,這證實(shí)了 SlowFast 設(shè)計處理長視頻方面的強(qiáng)大能力。

Text Generation 

圖片

文生視頻

如表 3 所示,對于文本生成視頻的任務(wù),SF-LLaVA 也顯示出了一些優(yōu)勢。SF-LLaVA-34B 在整體表現(xiàn)上超越了所有免訓(xùn)練的基準(zhǔn)。盡管在細(xì)節(jié)取向方面,SF-LLaVA 略遜于 LLaVA-NeXT-Image?;?SlowFast 設(shè)計,SF-LLaVA 可以用更少的視覺 token 覆蓋更長的時間上下文,因此在時間理解任務(wù)中表現(xiàn)得格外出色。

此外,在文生視頻的表現(xiàn)上,SF-LLaVA-34B 也優(yōu)于大多數(shù) SFT 方法。

圖片

更多細(xì)節(jié),請參考原論文。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2025-03-27 09:47:23

訓(xùn)練模型AI

2024-11-08 09:30:00

2025-04-27 08:30:00

2024-01-06 17:12:44

視頻AI

2023-12-29 13:18:23

模型NeRFTICD

2022-01-07 09:56:49

自然語言神經(jīng)網(wǎng)絡(luò)人工智能

2024-04-08 12:18:57

訓(xùn)練AI

2015-07-17 09:59:18

2021-09-27 10:12:42

欺騙防御rMTD網(wǎng)絡(luò)攻擊

2022-12-12 11:31:39

數(shù)據(jù)學(xué)習(xí)

2021-02-20 16:07:27

神經(jīng)網(wǎng)絡(luò)AI算法

2015-07-03 10:08:50

Apple Watch市場滯銷

2016-11-14 11:00:34

2016-03-25 16:02:49

中國企業(yè)新聞網(wǎng)

2024-07-30 10:51:51

2024-07-10 12:42:53

2013-09-03 13:14:15

諾基亞Google

2010-04-01 09:30:57

2015-08-21 09:14:40

大數(shù)據(jù)

2024-09-29 10:40:00

數(shù)據(jù)模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號