中科大等意外發(fā)現(xiàn):大模型不看圖也能正確回答視覺問題!
大模型不看圖,竟也能正確回答視覺問題?!
中科大、香港中文大學(xué)、上海AI Lab的研究團(tuán)隊(duì)團(tuán)隊(duì)意外發(fā)現(xiàn)了這一離奇現(xiàn)象。
他們首先看到像GPT-4V、GeminiPro、Qwen1.5-72B、Yi-VL-34B以及LLaVA-Next-34B等大模型,不管是閉源還是開源,語言模型還是多模態(tài),竟然只根據(jù)在多模態(tài)基準(zhǔn)MMMU測試中的問題和選項(xiàng)文本,就能獲得不錯(cuò)的成績。
△藍(lán)色表示能看到圖的LVLMs,橘色和綠色分別表示只接收問題和選項(xiàng)文本的LLMs和LVLMs
(LLM:大語言模型;LVLMs:多模態(tài)大模型)不知道的還以為是大模型的隱藏技能被發(fā)現(xiàn)了。
有網(wǎng)友發(fā)出靈魂拷問:我們評估多模態(tài)模型的方法正確嗎?
這一結(jié)果也激起了研究者們的好奇,于是他們決定對此展開進(jìn)一步探究。
大模型隱藏技能被發(fā)現(xiàn)?
針對現(xiàn)有的評估樣本和評估過程,研究人員認(rèn)為造成這種現(xiàn)象的兩個(gè)主要問題。
第一,一些多模態(tài)評估樣本缺少對視覺內(nèi)容的依賴性。
這種問題反映了現(xiàn)有的benchmark中的不合理之處。這個(gè)問題包含了兩種情況:
一種是有些評估樣本的答案可以被蘊(yùn)含在了題目和選項(xiàng)中從而免去了看圖的必要。
比如會有這種問題,這個(gè)圓形土圈是什么形狀?
另外一種則是有些評估樣本可以直接被語言大模型利用嵌入的豐富世界知識進(jìn)行解答而無需依賴圖片。
比如下圖中的問題:內(nèi)布拉斯加州的首府是什么?
第二,現(xiàn)有評估過程未考慮語言和多模態(tài)大模型訓(xùn)練過程中的數(shù)據(jù)泄露問題。
LVLM通常由一個(gè)vision encoder,一個(gè)語言模型基座,以及一個(gè)視覺-語言連接件組成。而且現(xiàn)有的多模態(tài)benchmark中有大量的評估樣本是從單模態(tài)的文本語料中轉(zhuǎn)化過來的(比如從考試題目中轉(zhuǎn)化而來)。
因此如果大語言模型的訓(xùn)練數(shù)據(jù)中無意間泄露了多模態(tài)benchmark中轉(zhuǎn)化不充分的評估樣本,就會影響LVLMs之間的公平比較。
為了定量觀察大語言模型中廣泛存在的泄露現(xiàn)象,研究者們采用了22個(gè)大語言模型在6個(gè)公開benchmark上進(jìn)行評估。
這些大語言模型包含了2個(gè)閉源模型(GPT4-Turbo以及GeminiPro)和20個(gè)大小、架構(gòu)各異的開源模型(比如Qwen系列,LLaMA2系列,Baichuan系列,Mixtral-8x7B等),并且使用了2-shot推理策略來減少拒絕回答的情況以及對齊回答的格式。
結(jié)果看到,閉源模型GeminiPro和開源模型Qwen1.5-72B在極具挑戰(zhàn)性的MMMU基準(zhǔn)上可以分別取得42.7和42.4的驚人成績,一度逼近GeminiPro-Vision (44.4),LLaVA-Next-34B (47.0)和Yi-VL-34B (43.2)等多模態(tài)模型在能看到圖片情況下的表現(xiàn)。
進(jìn)一步的,他們還定量觀察多模態(tài)大模型在訓(xùn)練過程中的數(shù)據(jù)泄露情況:屏蔽了LVLM的圖片輸入從而只根據(jù)文本問題和選項(xiàng)來進(jìn)行評估(標(biāo)記為LVLM-text)。
可以看到,像Sphinx-X-MoE和Monkey-Chat經(jīng)過多模態(tài)訓(xùn)練后在不看圖的情況下相比原始大模型在MMMU基準(zhǔn)上可以分別提升驚人的17.9和12.6,而它們即使進(jìn)一步在看到圖片的情況下也只能獲得1.2和4.7的性能提升。
GPT-4在新基準(zhǔn)上沒有及格
為了解決上述問題從而進(jìn)行更公平和準(zhǔn)確的評估,研究者們設(shè)計(jì)了一個(gè)多模態(tài)評估基準(zhǔn)MMStar——
包含了1,500個(gè)具有視覺依賴性的高質(zhì)量評估樣本,涵蓋了樣本均衡的粗略感知、精細(xì)感知,實(shí)例推理、邏輯推理、科學(xué)技術(shù)、數(shù)學(xué)這六個(gè)核心能力以及18個(gè)詳細(xì)的能力維度。
伴隨著MMStar benchmark,作者們還提出了multi-modal gain (MG)和 multi-modal leakage (ML)兩個(gè)評估指標(biāo)來反映出LVLMs在多模訓(xùn)練過程中的真實(shí)性能增益和數(shù)據(jù)泄露程度。
隨后,為了檢驗(yàn)所提出的MMStar質(zhì)量,他們進(jìn)行了三項(xiàng)評估。
1)用22個(gè)大語言模型只根據(jù)MMStar中的問題和選型進(jìn)行了評估,結(jié)果顯示,他們的表現(xiàn)都接近于隨機(jī)選擇,這表明MMStar在現(xiàn)有大模型訓(xùn)練語料中有著很少的數(shù)據(jù)泄露。
2)評估16個(gè)多模態(tài)模型在MMStar上的性能。
高分辨率設(shè)置下的GPT4V取得了57.1的最高平均性能(但還是沒有及格)。
開源模型中InternLM-Xcomposer2取得了平均性能為55.4的好成績,LLaVA-Next在數(shù)學(xué)維度上的表現(xiàn)要略優(yōu)于GPT4V和GeminiPro-Vision。
值得注意的是,沒有多模態(tài)大模型能夠在精細(xì)感知(FP),邏輯推理(LR),科學(xué)技術(shù)(ST)以及數(shù)學(xué)(MA)上及格。
3)用16個(gè)LVLMs在6個(gè)公開benchmark以及所提的MMStar上對MG和ML指標(biāo)進(jìn)行了廣泛評估。
可以看到,而MMStar展示出了最少的平均數(shù)據(jù)泄漏程度。
研究團(tuán)隊(duì)相信,這種跨模型間的ML指標(biāo)對社區(qū)之后檢驗(yàn)新開發(fā)的多模態(tài)benchmarks也是有益的。
論文鏈接:
???https://arxiv.org/pdf/2403.20330.pdf???
項(xiàng)目鏈接:
???https://mmstar-benchmark.github.io/??
??https://huggingface.co/datasets/Lin-Chen/MMStar??
代碼鏈接:
???https://github.com/MMStar-Benchmark/MMStar??
本文轉(zhuǎn)自 量子位 ,作者:量子位
