年末重磅!ByteDance Research視頻理解大模型「眼鏡猴」正式發(fā)布
最近,ByteDance Research 的視頻理解大模型眼鏡猴(Tarsier) 迎來了巨大更新,發(fā)布了第二代模型 Tarsier2 及相關技術報告。研究團隊此前發(fā)布的 Tarsier-7B/34B 在視頻描述領域已經(jīng)是最強開源模型,僅次于閉源模型 Gemini-1.5-Pro 和 GPT-4o。那么這次新版 Tarsier2 又會帶給我們什么樣的驚喜呢?
直接上強度!來看看 Tarsier2 對下面這兩個影視名場面的理解如何:
《燕子,沒有你我怎么活》
《曹操蓋飯》
可以看到,Tarsier2 不僅對于視頻中人物動作捕捉得細致入微(如小岳岳追車、跪地,曹操蓋飯、揮手),還可以充分結合視頻中的字幕信息,從而進一步分析人物的動機 / 心理,理解人物關系和情節(jié)發(fā)展。
既然如此復雜的影視片段能夠分析清楚,Tarsier 最擅長的視頻描述任務自然也不在話下:
Tarsier2 視頻描述效果合集
無論是真人還是動畫、橫屏還是豎屏、多場景還是多鏡頭,Tarsier2 總是能敏銳地捕捉視頻中的核心視覺元素及動態(tài)事件,使用簡練的語言表述出來,并且很少產生幻覺。這么看來,Tarsier2 已經(jīng)可以和 GPT-4o 扳一扳手腕了。
“火眼金睛” 是怎么煉成的?
Tarsier2 是一個 7B 大小的輕量級模型,支持動態(tài)分辨率,能夠看得懂長達幾十分鐘的視頻,尤其擅長對幾十秒的短視頻片段進行分析。研究團隊公開了詳盡的技術報告,相關數(shù)據(jù)、代碼和模型也在持續(xù)開源中:
- 論文地址:https://arxiv.org/abs/2501.07888
- 項目倉庫:https://github.com/bytedance/tarsier
- HuggingFace:https://huggingface.co/omni-research
Tarsier2 強大的視頻理解能力主要得益于預訓練和后訓練兩個階段的精益求精。
預訓練
Tarsier2 在 4000 萬個互聯(lián)網(wǎng)視頻 - 文本數(shù)據(jù)上進行預訓練。不同于文本模型只需要互聯(lián)網(wǎng)上的單語語料就可訓練,視頻理解模型嚴重依賴高質量的視頻 - 文本對齊數(shù)據(jù)。因此,如何大規(guī)模地獲取對齊數(shù)據(jù)是模型訓練的最大難點。團隊主要通過以下兩個途徑來解決:
- 數(shù)據(jù)收集方面:Tarsier2 海量收集互聯(lián)網(wǎng)上的視頻 - 文本數(shù)據(jù)。這些數(shù)據(jù)分布廣泛,涵蓋電影、電視劇、短視頻等各種來源,涉及人機交互、自動駕駛等多個領域。值得一提的是,Tarsier2 篩選了一大批影視劇解說的視頻。這些視頻不僅能夠幫助模型學會簡單的動作、事件,還能輔助模型理解更高層次的情節(jié)信息。
- 數(shù)據(jù)篩選方面:Tarsier2 設計了一套嚴謹?shù)牧鞒蹋瑏砗Y選高質量訓練數(shù)據(jù)。每條數(shù)據(jù)都會經(jīng)歷 “分鏡 → 過濾 → 合并” 3 個階段?!胺昼R” 階段,視頻會被切分成多個單一鏡頭片段;“過濾” 階段針對不同的數(shù)據(jù)使用不同的模型過濾低質數(shù)據(jù),如過濾掉動態(tài)性太差的、文本和畫面無關的等;“合并” 階段再將剩下的相鄰的視頻片段合在一起,增加視頻的復雜度。
后訓練
后訓練分為 SFT 和 DPO 兩個階段。
SFT:這一階段,模型在人工標注的視頻描述數(shù)據(jù)上進行訓練。這個階段的描述數(shù)據(jù)也是大有講究。Tarsier2 提出在視頻描述中引入針對每個子事件的具體定位信息(即明確每個事件源自哪些幀),以強化模型對時序信息與視覺特征的關注度,增強文本與視覺信號的對齊。
SFT數(shù)據(jù)樣例
DPO:這一階段,模型在自動化構造的正負樣本上進行 DPO 訓練。其中,正樣來源于模型對原始視頻的預測結果;負樣本來源于模型對經(jīng)過預先設計的隨機擾動的視頻的預測結果。這種直觀高效的構造方式使得模型能夠在描述視頻時,“又準確又全面”,減少描述中存在的幻覺。
是騾子是馬,牽出來溜溜!
俗話說,“光說不練假把式”,Tarsier2 在多達 19 個視頻理解公開基準上進行了性能測試,和最新最強的 10+ 個開源模型(Qwen2-VL、InternVL2.5、LLaVA-Video 等)以及閉源模型(Gemini-1.5, GPT-4o)來了場 “硬碰硬”。
Tarsier2 在包括視頻描述、短 / 長視頻問答在內的通用視頻理解任務上表現(xiàn)亮眼。在視頻描述評測集 DREAM-1K 上,Tarsier2 相比 GPT-4o 提升 +2.8%,相比 Gemini-1.5-Pro 提升 +5.8%;在人工評估中,Tarsier2-7b 相比 GPT-4o 優(yōu)勢占比 +7.8%,相比 Gemini-1.5-Pro 優(yōu)勢占比 +12.3%。
視頻描述質量人工評估結果
此外,Tarsier2 更是在 10+ 個視頻理解公開榜單上,超越了 Qwen2-VL-7B、InternVL2.5-8B 等同規(guī)模的模型,取得了 SOTA 成績:
Tarsier2在廣泛的視頻理解任務上樹立了新的標桿
除了勝任各種通用視頻理解任務,Tarsier2 作為基座模型在機器人、智能駕駛等下游任務場景中也展現(xiàn)出了極強的泛化能力。在機器人領域,Tarsier2 能為指定的任務生成詳細的步驟指令。在智能駕駛方面,Tarsier2 也能夠幫助車輛識別道路情況,并輔助進行決策。
機器人場景。
智能駕駛場景。
向更強的智能進發(fā)
Tarsier 在生成詳細且準確的視頻描述方面超越了現(xiàn)有的閉源和開源工作,更是在廣泛的視頻理解任務中樹立了新的標桿。文本、語音、圖片、視頻多模態(tài)深度融合是當下人工智能發(fā)展的核心趨勢與關鍵方向,Tarsier2 在這條道路上已經(jīng)邁出了堅實的步伐。期待未來 Tarsier2 能在多模態(tài)融合的浪潮中持續(xù)領航,為人工智能的發(fā)展帶來更多驚喜與突破 。