自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

阿里通義團隊開源 R1-Omni:多模態(tài)模型 + RLVR,讓各模態(tài)作用清晰可見

人工智能 開源
通義實驗室團隊探索了 RLVR 與視頻全模態(tài)模型的結合,宣布開源 R1-Omni 模型。R1-Omni 的一大亮點在于其透明性(推理能力)。通過 RLVR 方法,音頻信息和視頻信息在模型中的作用變得更加清晰可見。

3 月 11 日消息,隨著 DeepSeek R1 的推出,強化學習在大模型領域的潛力被進一步挖掘。Reinforcement Learning with Verifiable Reward(RLVR)方法的出現(xiàn),為多模態(tài)任務提供了全新的優(yōu)化思路,無論是幾何推理、視覺計數(shù),還是經(jīng)典圖像分類和物體檢測任務,RLVR 都展現(xiàn)出了顯著優(yōu)于傳統(tǒng)監(jiān)督微調(SFT)的效果。

然而,現(xiàn)有研究多聚焦于 Image-Text 多模態(tài)任務,尚未涉足更復雜的全模態(tài)場景?;诖耍x實驗室團隊探索了 RLVR 與視頻全模態(tài)模型的結合,于今日宣布開源 R1-Omni 模型。

R1-Omni 的一大亮點在于其透明性(推理能力)。通過 RLVR 方法,音頻信息和視頻信息在模型中的作用變得更加清晰可見。

比如,在情緒識別任務中,R1-Omni 能夠明確展示哪些模態(tài)信息對特定情緒的判斷起到了關鍵作用。

為了驗證 R1-Omni 的性能,通義實驗室團隊將其與原始的 HumanOmni-0.5B 模型、冷啟動階段的模型以及在 MAFW 和 DFEW 數(shù)據(jù)集上有監(jiān)督微調的模型進行了對比。

實驗結果顯示,在同分布測試集(DFEW 和 MAFW)上,R1-Omni 相較于原始基線模型平均提升超過 35%,相較于 SFT 模型在 UAR 上的提升高達 10% 以上。在不同分布測試集(RAVDESS)上,R1-Omni 同樣展現(xiàn)了卓越的泛化能力,WAR 和 UAR 均提升超過 13%。這些結果充分證明了 RLVR 在提升推理能力和泛化性能上的顯著優(yōu)勢。

IT之家附 R1-Omni 開源地址:

責任編輯:龐桂玉 來源: IT之家
相關推薦

2025-03-11 13:47:10

2025-03-27 10:04:36

阿里云通義千問多模態(tài)

2025-01-08 08:21:16

2025-03-19 09:30:00

2024-08-30 15:19:22

2024-05-21 07:54:30

視頻多模態(tài)語義檢索算法

2024-03-25 12:30:18

AI訓練開源

2025-03-13 08:13:47

DeepSeekMLLMVision-R1

2025-02-18 09:10:00

2024-11-13 09:39:13

2024-12-18 18:57:58

2023-12-01 13:36:01

阿里云通義千問

2024-10-25 14:30:00

模型AI

2025-01-06 10:00:00

模型視覺生成

2025-04-07 00:00:00

多模態(tài)大模型

2025-04-14 00:20:00

2025-03-04 17:27:05

2020-05-01 12:40:21

神經(jīng)網(wǎng)絡AI游戲

2024-01-22 13:59:00

模型訓練
點贊
收藏

51CTO技術棧公眾號