自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

顯著超越SFT,o1/DeepSeek-R1背后秘訣也能用于多模態(tài)大模型了

人工智能
他們將DeepSeek-R1背后的基于規(guī)則獎(jiǎng)勵(lì)的強(qiáng)化學(xué)習(xí)方法和OpenAI的強(qiáng)化微調(diào)(Reinforcement Fine-Tuning,RFT)范式,成功從純文本大語(yǔ)言模型拓展到了視覺(jué)語(yǔ)言大模型(LVLM)。

o1/DeepSeek-R1背后秘訣也能擴(kuò)展到多模態(tài)了!

舉個(gè)例子,提問(wèn)多模態(tài)大模型:“什么寶可夢(mèng)可以釋放技能十萬(wàn)伏特”時(shí),模型通過(guò)推理過(guò)程準(zhǔn)確找出皮卡丘對(duì)應(yīng)的坐標(biāo)框,展示出模型的泛化能力。

圖片

這是來(lái)自上海交大、上海AI Lab、港中文大學(xué)的研究人員推出的視覺(jué)強(qiáng)化微調(diào)開源項(xiàng)目——Visual-RFT (Visual Reinforcement Fine-Tuning), 只需10~1000條數(shù)據(jù),就能通過(guò)思考過(guò)程和基于規(guī)則的監(jiān)督提升多模態(tài)大模型的性能。

圖片

具體來(lái)說(shuō),他們將DeepSeek-R1背后的基于規(guī)則獎(jiǎng)勵(lì)的強(qiáng)化學(xué)習(xí)方法和OpenAI的強(qiáng)化微調(diào)(Reinforcement Fine-Tuning,RFT)范式,成功從純文本大語(yǔ)言模型拓展到了視覺(jué)語(yǔ)言大模型(LVLM)。

通過(guò)針對(duì)視覺(jué)的細(xì)分類、目標(biāo)檢測(cè)等任務(wù)設(shè)計(jì)對(duì)應(yīng)的規(guī)則獎(jiǎng)勵(lì),Visual-RFT打破了DeepSeek-R1方法局限于文本、數(shù)學(xué)推理、代碼等少數(shù)領(lǐng)域的認(rèn)知,為視覺(jué)語(yǔ)言模型的訓(xùn)練開辟了全新路徑。

下面具體來(lái)看。

從R1到Visual-RFT:強(qiáng)化學(xué)習(xí)的多模態(tài)突破

OpenAI o1主打的強(qiáng)化微調(diào)能力(Reinforcement Fine-Tuning)能只用少量樣本就將o1遷移到新的任務(wù)上。

最近DeepSeek-R1解釋了o1模型背后的強(qiáng)推理能力來(lái)自基于可驗(yàn)證獎(jiǎng)勵(lì)(Verified Rewards)/規(guī)則獎(jiǎng)勵(lì)(Rule-based Verifier)的強(qiáng)化學(xué)習(xí)策略。

不過(guò),目前主流的認(rèn)知在于這種基于規(guī)則獎(jiǎng)勵(lì)的方法只適用于數(shù)學(xué)推理、代碼等少數(shù)便于驗(yàn)證的任務(wù)。

而在Visual-RFT中,研究人員將這一策略遷移到了視覺(jué)語(yǔ)言模型。

通過(guò)對(duì)細(xì)分類、目標(biāo)檢測(cè)等任務(wù)建立對(duì)應(yīng)的可驗(yàn)證規(guī)則獎(jiǎng)勵(lì),研究解決了傳統(tǒng)方法在視覺(jué)領(lǐng)域中的局限性,只需少量微調(diào)樣本就實(shí)現(xiàn)了更高效、泛化性更強(qiáng)的視覺(jué)理解與推理能力。

傳統(tǒng)的視覺(jué)指令微調(diào)(Visual Instruction Tuning/Supervised Fine-Tuning,SFT)需要海量數(shù)據(jù)對(duì)模型微調(diào),在數(shù)據(jù)量有限(例如某些難以收集數(shù)據(jù)的特定學(xué)科場(chǎng)景)的情況下帶來(lái)的提升有限。

與之不同,新研究提出的視覺(jué)強(qiáng)化微調(diào)(Visual Reinforcement Fine-Tuning)具有少樣本學(xué)習(xí)能力更強(qiáng)的泛化性,在數(shù)據(jù)量有限的場(chǎng)景下相比指令微調(diào)具有很大的優(yōu)勢(shì)。

為驗(yàn)證Visual-RFT(視覺(jué)強(qiáng)化微調(diào))的的泛化能力和普適性,力求對(duì)視覺(jué)領(lǐng)域的全面覆蓋,研究人員在多個(gè)視覺(jué)感知任務(wù)上對(duì)Visual-RFT進(jìn)行驗(yàn)證,包含Detection,Classification,Grounding等。

其中,Visual-RFT在open vocabulary,few-shot learning等設(shè)定下,僅僅通過(guò)非常少量的數(shù)據(jù)就取得了顯著的性能提升,輕松實(shí)現(xiàn)能力的遷移,且結(jié)果明顯優(yōu)于SFT的微調(diào)方法。

在Reasoning Grounding(推理定位)的測(cè)試中,Visual-RFT展現(xiàn)出強(qiáng)大的視覺(jué)推理能力。

評(píng)測(cè)結(jié)果如下圖所示:

圖片

為了在視覺(jué)多模態(tài)領(lǐng)域驗(yàn)證可驗(yàn)證獎(jiǎng)勵(lì)的作用,研究人員提出了使用基于IoU的verified reward獎(jiǎng)勵(lì)應(yīng)用于detection和grounding等任務(wù),使用基于分類正確判斷的cls reward用于classification任務(wù)。

圖片

部分推理定位結(jié)果顯示,通過(guò)引入思考過(guò)程和強(qiáng)化學(xué)習(xí)策略,Visual-RFT(多模態(tài)強(qiáng)化微調(diào))顯著超越SFT,更加準(zhǔn)確地定位物體。

如詢問(wèn)模型,圖中的運(yùn)動(dòng)員在水下依然保持清晰的視野需要帶什么物體時(shí)候,通過(guò)傳統(tǒng)指令微調(diào)的方法模型直接將整個(gè)運(yùn)動(dòng)員框出。

而Visual-RFT通過(guò)引入推理過(guò)程準(zhǔn)確地指出防水眼睛及其所在的位置并準(zhǔn)確框出。

圖片

部分推理細(xì)粒度分類結(jié)果也展示了相同結(jié)論。

圖片

小結(jié)一下,相比于傳統(tǒng)的視覺(jué)指令微調(diào)(Visual Instruction/Supervised Fine-Tuning),Visual-RFT(視覺(jué)強(qiáng)化微調(diào))通過(guò)強(qiáng)化學(xué)習(xí)方法,對(duì)問(wèn)題進(jìn)行深入的think分析取得更佳推理性能,相較于傳統(tǒng)的指令微調(diào)(SFT)方法取得顯著提升。

Visual-RFT實(shí)驗(yàn)結(jié)果

Visual-RFT(視覺(jué)強(qiáng)化微調(diào))在各大圖文感知任務(wù)中均展現(xiàn)出強(qiáng)大的性能。

實(shí)驗(yàn)主要基于視覺(jué)語(yǔ)言大模型基座QWen2-VL 2B/7B模型,和傳統(tǒng)的監(jiān)督微調(diào)(Supervised Fine-Tuning)方法進(jìn)行對(duì)比。

在開放目標(biāo)檢測(cè)、少樣本檢測(cè)、細(xì)粒度分類和推理定位任務(wù)上,Visual-RFT相比SFT全面實(shí)現(xiàn)了性能提升。

值得一提的是,該研究的測(cè)試數(shù)據(jù)既包含COCO、LVIS等通用場(chǎng)景,又包含從互聯(lián)網(wǎng)中收集的卡通人物等開放場(chǎng)景數(shù)據(jù)。只需要幾十條數(shù)據(jù),模型通過(guò)Visual-RFT可以學(xué)會(huì)檢測(cè)某動(dòng)漫中的史萊姆形象。

實(shí)驗(yàn)結(jié)果廣泛驗(yàn)證了Visual-RFT的卓越性能和魯棒性。

圖片

目前,包含訓(xùn)練、評(píng)測(cè)代碼,數(shù)據(jù)在內(nèi),Visual-RFT項(xiàng)目已全面開源。

項(xiàng)目地址:https://github.com/Liuziyu77/Visual-RFT

責(zé)任編輯:武曉燕 來(lái)源: 量子位
相關(guān)推薦

2025-02-03 14:17:27

2025-03-13 08:13:47

DeepSeekMLLMVision-R1

2025-01-24 15:03:27

2025-04-29 09:06:00

2025-02-19 08:00:00

2025-03-05 03:00:00

DeepSeek大模型調(diào)優(yōu)

2025-02-13 08:51:23

DeepSeek大模型

2025-02-06 10:18:45

2024-11-19 15:00:00

模型開源

2025-04-22 09:12:00

AI模型數(shù)據(jù)

2025-03-10 08:10:00

AI研究安全

2024-11-25 17:23:10

2025-02-08 14:03:25

2025-02-08 10:42:34

2025-03-05 08:40:00

2025-02-06 09:11:54

2025-01-21 08:00:00

2025-01-08 13:08:55

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)