GPT-4o弱點暴露了,PDF長文檔閱讀理解僅45分
圖文并茂的PDF長文檔在日常生活中無處不在。過去人們通常使用OCR,layout detection等方法對PDF長文檔進(jìn)行解析。但隨著多模態(tài)大模型的發(fā)展,PDF長文檔的端到端閱讀理解成為了可能。
為了評測多模態(tài)大模型在PDF長文檔上的閱讀理解能力,由上海AI Lab領(lǐng)銜提出的MMLongBench-Doc評估基準(zhǔn)測試了14個LVLMs(視覺語言大模型)。
評估結(jié)果表明:表現(xiàn)最好的GPT-4o在整體F1分?jǐn)?shù)上也只達(dá)到了 44.9%。
GPT-4V排名第二,得分30.5%。
除了這兩個模型,其他被評測LVLMs的表現(xiàn)更是要弱于OCR+LLMs形式。
這些結(jié)果表明,目前的LVLMs在端到端PDF長文檔閱讀任務(wù)上雖然表現(xiàn)出了一定的潛力,但仍然還有很大的提升空間。
135個PDF、1091個問題
LVLMs的出現(xiàn)有效促進(jìn)了文檔理解任務(wù)的解決。針對單頁文檔,常見的閉源和開源模型都展示出了相當(dāng)不錯的表現(xiàn)(DocVQA > 90%;ChartQA > 80%)。然而,日常生活中閱讀的文檔,如論文、財報、宣傳資料,往往有更多的頁數(shù),許多文檔長度可以達(dá)到數(shù)十頁甚至上百頁。面對長文檔,無論是單頁信息的查詢還是跨頁信息的理解都極具挑戰(zhàn)性,因此對LVLMs的能力提出了更高的要求。
因此研究團(tuán)隊提出了《MMLONGBENCH-DOC: Benchmarking Long-context Document Understanding with Visualizations》,以進(jìn)一步評估LVLMs在超長文檔解析方面的能力。
MMLongBench-Doc的數(shù)據(jù)統(tǒng)計量、文檔格式和問題類型示例如圖1所示。
與之前的文檔理解數(shù)據(jù)集相比,MMLongBench-Doc在文檔側(cè)和問題側(cè)都具有顯著優(yōu)勢:
△MMLongBench-Doc的數(shù)據(jù)統(tǒng)計量
文檔側(cè):研究團(tuán)隊手動選取了135篇PDF格式的文檔,涵蓋學(xué)術(shù)論文、財務(wù)報告、教程、宣傳手冊等7個不同領(lǐng)域。絕大多數(shù)文檔都具有復(fù)雜的版式結(jié)構(gòu),并且包含多種模態(tài)(文字、表格、圖片等)的內(nèi)容。文檔的平均長度為47.5頁,文本信息超過兩萬個單詞,篇幅和信息量遠(yuǎn)遠(yuǎn)超過其他數(shù)據(jù)集中的文檔。
△文檔的分布(左)。文檔的頁數(shù)與字符數(shù)統(tǒng)計(右;包含和之前數(shù)據(jù)集的比較)
問題側(cè):由10名phd-level的標(biāo)注者人工標(biāo)注了1091個問題:
這些問題可以分為三類:single-page、cross-page和unanswerable。
Single-page question:44.5%的問題是針對某一頁內(nèi)容設(shè)計的,重點考察大模型從長文本中查找信息的能力(類似于大海撈針);
Cross-page question: 33%的問題需要綜合兩頁甚至更多頁內(nèi)容的信息來回答,重點考察大模型面對多跳問題的綜合推理能力;
Unanswerable question: 為了防止模型利用文檔中的捷徑回答問題,22.5%的問題被設(shè)計為沒有答案,即無法根據(jù)文檔中提供的信息進(jìn)行回答。
這些問題均勻分布在文檔的不同位置(page index)和不同模態(tài)(分為text, layout, table, chart, image五種)的內(nèi)容中。
△問題均勻分布在文章的不同位置
其他被評測LVLMs整體表現(xiàn)弱于OCR+LLMs
研究評測了14個LVLMs(4個閉源模型,10個開源模型)在MMLongBench-Doc上的表現(xiàn)。
通過給定一篇文檔和一個基于該文檔的問題,研究人員將PDF格式的文檔轉(zhuǎn)化成多張PNG格式的頁面截圖,并將這些截圖輸入給LVLMs。作為比較,還使用OCR工具將PDF文檔轉(zhuǎn)化為TXT文本,并使用這些TXT文本評測了10個LLMs的表現(xiàn)。評測的具體結(jié)果如下所示。
△LVLMs與LLMs在MMLongBench-Doc上的實驗結(jié)果
研究團(tuán)隊發(fā)現(xiàn):
GPT-4o在所有LVLMs中表現(xiàn)最佳,F(xiàn)1分?jǐn)?shù)達(dá)到了約45%;排名第二的GPT-4V的F1分?jǐn)?shù)則為約31%。其余LVLMs的表現(xiàn)則在20%左右甚至更低。這說明,目前的LVLMs尚不足以勝任端到端的長文檔閱讀理解。
通過對比LVLMs和OCR+LLMs的表現(xiàn)。盡管OCR解析會對PDF文本帶來損耗(尤其是對圖表類信息),除了GPT-4o和GPT-4V這兩個模型外,其他被評測的LVLMs整體表現(xiàn)弱于OCR+LLMs。這進(jìn)一步說明目前的LVLMs在長文檔閱讀理解上還有很大的潛力。
△LVLMs與LLMs的實驗結(jié)果對比
對于能力更強的LVLM模型,比如GPT-4o,其直接讀取PDF圖片的表現(xiàn)則優(yōu)于其讀取OCR版本的文檔,這說明了多模態(tài)大語言模型在端到端的長文檔閱讀理解任務(wù)上具有更高的上限。
此外,研究團(tuán)隊還對六個不同模型進(jìn)行了定性分析。
如下圖所示,這個問題來自于一個40頁長的文檔,需要綜合第9,10頁中的兩個表格和第16頁中的一個圖表進(jìn)行多步推理才能夠回答。
可以看到除了GPT-4o回答正確外,GPT-4V也給出了正確的分析思路(但因為在抽取第10頁的信息時出錯導(dǎo)致最終的答案不正確),而其他模型的回答則明顯存在很大的問題。
△案例分析
更多定量和定性的分析討論可閱讀論文原文。
論文地址:https://arxiv.org/pdf/2407.01523
項目頁:https://mayubo2333.github.io/MMLongBench-Doc/
數(shù)據(jù)集:https://huggingface.co/datasets/yubo2333/MMLongBench-Doc
GitHub:https://github.com/mayubo2333/MMLongBench-Doc