自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

中科大等意外發(fā)現(xiàn):大模型不看圖也能正確回答視覺問題!

人工智能 新聞
中科大、香港中文大學(xué)、上海AI Lab的研究團隊團隊意外發(fā)現(xiàn)了這一離奇現(xiàn)象。

想了解更多AIGC的內(nèi)容:

請訪問: 51CTO AI.x社區(qū)

http://www.scjtxx.cn/aigc/

大模型不看圖,竟也能正確回答視覺問題?!

中科大、香港中文大學(xué)、上海AI Lab的研究團隊團隊意外發(fā)現(xiàn)了這一離奇現(xiàn)象。

他們首先看到像GPT-4V、GeminiPro、Qwen1.5-72B、Yi-VL-34B以及LLaVA-Next-34B等大模型,不管是閉源還是開源,語言模型還是多模態(tài),竟然只根據(jù)在多模態(tài)基準(zhǔn)MMMU測試中的問題和選項文本,就能獲得不錯的成績。

圖片

△藍(lán)色表示能看到圖的LVLMs,橘色和綠色分別表示只接收問題和選項文本的LLMs和LVLMs

(LLM:大語言模型;LVLMs:多模態(tài)大模型)

不知道的還以為是大模型的隱藏技能被發(fā)現(xiàn)了。

有網(wǎng)友發(fā)出靈魂拷問:我們評估多模態(tài)模型的方法正確嗎?

圖片

這一結(jié)果也激起了研究者們的好奇,于是他們決定對此展開進一步探究。

大模型隱藏技能被發(fā)現(xiàn)?

針對現(xiàn)有的評估樣本和評估過程,研究人員認(rèn)為造成這種現(xiàn)象的兩個主要問題。

第一,一些多模態(tài)評估樣本缺少對視覺內(nèi)容的依賴性。

這種問題反映了現(xiàn)有的benchmark中的不合理之處。這個問題包含了兩種情況:

一種是有些評估樣本的答案可以被蘊含在了題目和選項中從而免去了看圖的必要。

比如會有這種問題,這個圓形土圈是什么形狀?

圖片

另外一種則是有些評估樣本可以直接被語言大模型利用嵌入的豐富世界知識進行解答而無需依賴圖片。

比如下圖中的問題:內(nèi)布拉斯加州的首府是什么?

圖片

第二,現(xiàn)有評估過程未考慮語言和多模態(tài)大模型訓(xùn)練過程中的數(shù)據(jù)泄露問題。

LVLM通常由一個vision encoder,一個語言模型基座,以及一個視覺-語言連接件組成。而且現(xiàn)有的多模態(tài)benchmark中有大量的評估樣本是從單模態(tài)的文本語料中轉(zhuǎn)化過來的(比如從考試題目中轉(zhuǎn)化而來)。

因此如果大語言模型的訓(xùn)練數(shù)據(jù)中無意間泄露了多模態(tài)benchmark中轉(zhuǎn)化不充分的評估樣本,就會影響LVLMs之間的公平比較。

為了定量觀察大語言模型中廣泛存在的泄露現(xiàn)象,研究者們采用了22個大語言模型在6個公開benchmark上進行評估。

這些大語言模型包含了2個閉源模型(GPT4-Turbo以及GeminiPro)和20個大小、架構(gòu)各異的開源模型(比如Qwen系列,LLaMA2系列,Baichuan系列,Mixtral-8x7B等),并且使用了2-shot推理策略來減少拒絕回答的情況以及對齊回答的格式。

圖片

結(jié)果看到,閉源模型GeminiPro和開源模型Qwen1.5-72B在極具挑戰(zhàn)性的MMMU基準(zhǔn)上可以分別取得42.7和42.4的驚人成績,一度逼近GeminiPro-Vision (44.4),LLaVA-Next-34B (47.0)和Yi-VL-34B (43.2)等多模態(tài)模型在能看到圖片情況下的表現(xiàn)。

進一步的,他們還定量觀察多模態(tài)大模型在訓(xùn)練過程中的數(shù)據(jù)泄露情況:屏蔽了LVLM的圖片輸入從而只根據(jù)文本問題和選項來進行評估(標(biāo)記為LVLM-text)。

圖片

可以看到,像Sphinx-X-MoE和Monkey-Chat經(jīng)過多模態(tài)訓(xùn)練后在不看圖的情況下相比原始大模型在MMMU基準(zhǔn)上可以分別提升驚人的17.9和12.6,而它們即使進一步在看到圖片的情況下也只能獲得1.2和4.7的性能提升。

圖片

GPT-4在新基準(zhǔn)上沒有及格

為了解決上述問題從而進行更公平和準(zhǔn)確的評估,研究者們設(shè)計了一個多模態(tài)評估基準(zhǔn)MMStar——

包含了1,500個具有視覺依賴性的高質(zhì)量評估樣本,涵蓋了樣本均衡的粗略感知、精細(xì)感知,實例推理、邏輯推理、科學(xué)技術(shù)、數(shù)學(xué)這六個核心能力以及18個詳細(xì)的能力維度。

圖片

伴隨著MMStar benchmark,作者們還提出了multi-modal gain (MG)和 multi-modal leakage (ML)兩個評估指標(biāo)來反映出LVLMs在多模訓(xùn)練過程中的真實性能增益和數(shù)據(jù)泄露程度。

圖片

隨后,為了檢驗所提出的MMStar質(zhì)量,他們進行了三項評估。

1)用22個大語言模型只根據(jù)MMStar中的問題和選型進行了評估,結(jié)果顯示,他們的表現(xiàn)都接近于隨機選擇,這表明MMStar在現(xiàn)有大模型訓(xùn)練語料中有著很少的數(shù)據(jù)泄露。

圖片

2)評估16個多模態(tài)模型在MMStar上的性能。

高分辨率設(shè)置下的GPT4V取得了57.1的最高平均性能(但還是沒有及格)。

開源模型中InternLM-Xcomposer2取得了平均性能為55.4的好成績,LLaVA-Next在數(shù)學(xué)維度上的表現(xiàn)要略優(yōu)于GPT4V和GeminiPro-Vision。

值得注意的是,沒有多模態(tài)大模型能夠在精細(xì)感知(FP),邏輯推理(LR),科學(xué)技術(shù)(ST)以及數(shù)學(xué)(MA)上及格。

圖片

3)用16個LVLMs在6個公開benchmark以及所提的MMStar上對MG和ML指標(biāo)進行了廣泛評估。

圖片

可以看到,而MMStar展示出了最少的平均數(shù)據(jù)泄漏程度。

研究團隊相信,這種跨模型間的ML指標(biāo)對社區(qū)之后檢驗新開發(fā)的多模態(tài)benchmarks也是有益的。

論文鏈接:https://arxiv.org/pdf/2403.20330.pdf
項目鏈接:https://mmstar-benchmark.github.io/

https://huggingface.co/datasets/Lin-Chen/MMStar

代碼鏈接:https://github.com/MMStar-Benchmark/MMStar


想了解更多AIGC的內(nèi)容:

請訪問: 51CTO AI.x社區(qū)

http://www.scjtxx.cn/aigc/

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2021-12-06 09:53:09

自然語言神經(jīng)網(wǎng)絡(luò)人工智能

2024-06-17 07:10:00

2024-12-02 10:40:00

AI模型

2023-10-30 15:06:00

模型數(shù)據(jù)

2023-08-21 13:49:00

圖像技術(shù)

2025-04-18 09:13:00

2023-12-04 13:23:00

數(shù)據(jù)訓(xùn)練

2013-06-19 11:32:32

計算性能ISCHPC

2023-03-17 07:59:57

AI數(shù)字化

2024-11-06 13:03:49

2012-11-23 10:15:55

SCC12全球超級計算大會

2021-05-07 09:34:20

量子芯片計算機

2024-11-04 13:30:00

模型AI

2025-04-09 09:25:00

視頻模型AI

2017-03-23 17:09:45

2024-12-04 09:15:00

AI模型

2021-11-17 16:13:45

IBM 處理器量子

2024-11-04 08:30:00

2023-07-09 15:09:18

機器學(xué)習(xí)能力

2013-08-21 15:13:17

英特爾中科大洋廣電行業(yè)
點贊
收藏

51CTO技術(shù)棧公眾號