顯著超越SFT,o1/DeepSeek-R1背后秘訣也能用于多模態(tài)大模型了
o1/DeepSeek-R1背后秘訣也能擴(kuò)展到多模態(tài)了!
舉個(gè)例子,提問(wèn)多模態(tài)大模型:“什么寶可夢(mèng)可以釋放技能十萬(wàn)伏特”時(shí),模型通過(guò)推理過(guò)程準(zhǔn)確找出皮卡丘對(duì)應(yīng)的坐標(biāo)框,展示出模型的泛化能力。
這是來(lái)自上海交大、上海AI Lab、港中文大學(xué)的研究人員推出的視覺(jué)強(qiáng)化微調(diào)開源項(xiàng)目——Visual-RFT (Visual Reinforcement Fine-Tuning), 只需10~1000條數(shù)據(jù),就能通過(guò)思考過(guò)程和基于規(guī)則的監(jiān)督提升多模態(tài)大模型的性能。
具體來(lái)說(shuō),他們將DeepSeek-R1背后的基于規(guī)則獎(jiǎng)勵(lì)的強(qiáng)化學(xué)習(xí)方法和OpenAI的強(qiáng)化微調(diào)(Reinforcement Fine-Tuning,RFT)范式,成功從純文本大語(yǔ)言模型拓展到了視覺(jué)語(yǔ)言大模型(LVLM)。
通過(guò)針對(duì)視覺(jué)的細(xì)分類、目標(biāo)檢測(cè)等任務(wù)設(shè)計(jì)對(duì)應(yīng)的規(guī)則獎(jiǎng)勵(lì),Visual-RFT打破了DeepSeek-R1方法局限于文本、數(shù)學(xué)推理、代碼等少數(shù)領(lǐng)域的認(rèn)知,為視覺(jué)語(yǔ)言模型的訓(xùn)練開辟了全新路徑。
下面具體來(lái)看。
從R1到Visual-RFT:強(qiáng)化學(xué)習(xí)的多模態(tài)突破
OpenAI o1主打的強(qiáng)化微調(diào)能力(Reinforcement Fine-Tuning)能只用少量樣本就將o1遷移到新的任務(wù)上。
最近DeepSeek-R1解釋了o1模型背后的強(qiáng)推理能力來(lái)自基于可驗(yàn)證獎(jiǎng)勵(lì)(Verified Rewards)/規(guī)則獎(jiǎng)勵(lì)(Rule-based Verifier)的強(qiáng)化學(xué)習(xí)策略。
不過(guò),目前主流的認(rèn)知在于這種基于規(guī)則獎(jiǎng)勵(lì)的方法只適用于數(shù)學(xué)推理、代碼等少數(shù)便于驗(yàn)證的任務(wù)。
而在Visual-RFT中,研究人員將這一策略遷移到了視覺(jué)語(yǔ)言模型。
通過(guò)對(duì)細(xì)分類、目標(biāo)檢測(cè)等任務(wù)建立對(duì)應(yīng)的可驗(yàn)證規(guī)則獎(jiǎng)勵(lì),研究解決了傳統(tǒng)方法在視覺(jué)領(lǐng)域中的局限性,只需少量微調(diào)樣本就實(shí)現(xiàn)了更高效、泛化性更強(qiáng)的視覺(jué)理解與推理能力。
傳統(tǒng)的視覺(jué)指令微調(diào)(Visual Instruction Tuning/Supervised Fine-Tuning,SFT)需要海量數(shù)據(jù)對(duì)模型微調(diào),在數(shù)據(jù)量有限(例如某些難以收集數(shù)據(jù)的特定學(xué)科場(chǎng)景)的情況下帶來(lái)的提升有限。
與之不同,新研究提出的視覺(jué)強(qiáng)化微調(diào)(Visual Reinforcement Fine-Tuning)具有少樣本學(xué)習(xí)能力和更強(qiáng)的泛化性,在數(shù)據(jù)量有限的場(chǎng)景下相比指令微調(diào)具有很大的優(yōu)勢(shì)。
為驗(yàn)證Visual-RFT(視覺(jué)強(qiáng)化微調(diào))的的泛化能力和普適性,力求對(duì)視覺(jué)領(lǐng)域的全面覆蓋,研究人員在多個(gè)視覺(jué)感知任務(wù)上對(duì)Visual-RFT進(jìn)行驗(yàn)證,包含Detection,Classification,Grounding等。
其中,Visual-RFT在open vocabulary,few-shot learning等設(shè)定下,僅僅通過(guò)非常少量的數(shù)據(jù)就取得了顯著的性能提升,輕松實(shí)現(xiàn)能力的遷移,且結(jié)果明顯優(yōu)于SFT的微調(diào)方法。
在Reasoning Grounding(推理定位)的測(cè)試中,Visual-RFT展現(xiàn)出強(qiáng)大的視覺(jué)推理能力。
評(píng)測(cè)結(jié)果如下圖所示:
為了在視覺(jué)多模態(tài)領(lǐng)域驗(yàn)證可驗(yàn)證獎(jiǎng)勵(lì)的作用,研究人員提出了使用基于IoU的verified reward獎(jiǎng)勵(lì)應(yīng)用于detection和grounding等任務(wù),使用基于分類正確判斷的cls reward用于classification任務(wù)。
部分推理定位結(jié)果顯示,通過(guò)引入思考過(guò)程和強(qiáng)化學(xué)習(xí)策略,Visual-RFT(多模態(tài)強(qiáng)化微調(diào))顯著超越SFT,更加準(zhǔn)確地定位物體。
如詢問(wèn)模型,圖中的運(yùn)動(dòng)員在水下依然保持清晰的視野需要帶什么物體時(shí)候,通過(guò)傳統(tǒng)指令微調(diào)的方法模型直接將整個(gè)運(yùn)動(dòng)員框出。
而Visual-RFT通過(guò)引入推理過(guò)程準(zhǔn)確地指出防水眼睛及其所在的位置并準(zhǔn)確框出。
部分推理細(xì)粒度分類結(jié)果也展示了相同結(jié)論。
小結(jié)一下,相比于傳統(tǒng)的視覺(jué)指令微調(diào)(Visual Instruction/Supervised Fine-Tuning),Visual-RFT(視覺(jué)強(qiáng)化微調(diào))通過(guò)強(qiáng)化學(xué)習(xí)方法,對(duì)問(wèn)題進(jìn)行深入的think分析取得更佳推理性能,相較于傳統(tǒng)的指令微調(diào)(SFT)方法取得顯著提升。
Visual-RFT實(shí)驗(yàn)結(jié)果
Visual-RFT(視覺(jué)強(qiáng)化微調(diào))在各大圖文感知任務(wù)中均展現(xiàn)出強(qiáng)大的性能。
實(shí)驗(yàn)主要基于視覺(jué)語(yǔ)言大模型基座QWen2-VL 2B/7B模型,和傳統(tǒng)的監(jiān)督微調(diào)(Supervised Fine-Tuning)方法進(jìn)行對(duì)比。
在開放目標(biāo)檢測(cè)、少樣本檢測(cè)、細(xì)粒度分類和推理定位任務(wù)上,Visual-RFT相比SFT全面實(shí)現(xiàn)了性能提升。
值得一提的是,該研究的測(cè)試數(shù)據(jù)既包含COCO、LVIS等通用場(chǎng)景,又包含從互聯(lián)網(wǎng)中收集的卡通人物等開放場(chǎng)景數(shù)據(jù)。只需要幾十條數(shù)據(jù),模型通過(guò)Visual-RFT可以學(xué)會(huì)檢測(cè)某動(dòng)漫中的史萊姆形象。
實(shí)驗(yàn)結(jié)果廣泛驗(yàn)證了Visual-RFT的卓越性能和魯棒性。
目前,包含訓(xùn)練、評(píng)測(cè)代碼,數(shù)據(jù)在內(nèi),Visual-RFT項(xiàng)目已全面開源。
項(xiàng)目地址:https://github.com/Liuziyu77/Visual-RFT