自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

GPT-4完成正確率僅6%!北大等提出首個「多輪、多模態(tài)」PPT任務(wù)完成基準PPTC

人工智能 新聞
為了填補LLM在復雜多模態(tài)環(huán)境中利用復雜工具完成多輪、多模態(tài)指令的評估空白,研究人員引入了PowerPoint任務(wù)完成(PPTC)基準測試,以評估LLM創(chuàng)建和編輯PPT文檔的能力。

最近對大型語言模型(例如ChatGPT和GPT-4)進行的評估工作主要側(cè)重于在基本自然語言任務(wù)上的能力,以及模型生成用于解決單句用戶指令的API的工具使用能力,卻忽略了在理解復雜多模態(tài)環(huán)境中使用API完成用戶指令的難題。

此外,現(xiàn)有評估方法主要集中在比較生成的API與標簽API序列,但在存在多個/無限正確解決方案的復雜情況下,這種方法也變得不再適用。

為了解決這個挑戰(zhàn),來自北大和微軟亞洲研究院的研究人員們提出了測試大模型在多輪,多模態(tài)環(huán)境下完成PPT任務(wù)的評估數(shù)據(jù)集PPTC(PowerPoint Task Completion)。

論文地址:http://arxiv.org/abs/2311.01767

開源項目:https://github.com/gydpku/PPTC

如圖1(a)所示,為了幫助用戶完成對PPT文檔的創(chuàng)建和編輯,研究人員采取多輪人機對話的形式來構(gòu)建數(shù)據(jù)集。

==

圖1:(a)模擬了人類與語言模型之間的多輪對話場景,以評估語言模型在PPT任務(wù)完成性能方面的表現(xiàn)。(b)對話單元的輪次數(shù)量分布。

每輪開始于用戶的指令,大模型需要生成對應(yīng)的API序列作為解決方法,執(zhí)行并返回生成的PPT文檔給用戶。

數(shù)據(jù)集中一共有279個像這樣的多輪對話單元,如圖1(b)所示,大部分單元由3到10對話輪次組成。

更進一步,如圖2(a)所示,數(shù)據(jù)集中包含各種難度的用戶指令(由所需API數(shù)量決定),如數(shù)百個涉及到統(tǒng)計圖表、表格、圖像、空間位置相關(guān)多模態(tài)操作的指令。

圖2:(a)指令所需最少API數(shù)量分布。(b)涉及到統(tǒng)計圖表,表格,圖片和位置操作的用戶指令數(shù)量。

生成和執(zhí)行API序列

為了完成每輪用戶的指令,研究人員主要考慮:

  1. 當前輪次的用戶指令
  2. 之前輪次的用戶指令(對話歷史)
  3. PPT文檔(環(huán)境信息)
  4. 可使用的API列表作為大模型輸入,prompt大模型生成對應(yīng)的API序列作為解決方案。

圖3:一個會話單元中語言模型如何完成一個輪次。(A)用當前的指令、之前的指令(對話歷史)、PPT文件內(nèi)容以及API參考文件作為輸入prompt大模型。(B)然后,語言模型生成API序列并執(zhí)行它,以獲取預測的PPT文件。(C)評估預測文件中的屬性和位置關(guān)系

為了方便大模型處理信息,研究人員提供一個PPT文檔讀取函數(shù)來將多模態(tài)文檔轉(zhuǎn)化為文字形式的文檔內(nèi)容,以及一個API執(zhí)行函數(shù)來自動執(zhí)行大模型生成的API序列,從而生成對應(yīng)的預測PPT文檔。

評估大模型生成的PPT文檔

本文提出PPTX-Match評估系統(tǒng)來評估大模型生成的文檔是否正確。

如圖3所示,它使用PPTX庫來抽取生成的文檔中所有的元素,并逐一驗證元素間的空間位置關(guān)系是否正確,并驗證元素的屬性內(nèi)容是否和標簽文檔的對應(yīng)內(nèi)容匹配。

本文的評測系統(tǒng)只評測最終生成的PPT文檔,因此允許各種API序列來完成用戶指令。

基于這個系統(tǒng),本文的評測指標分別包括只考慮當前輪次的輪次層面表現(xiàn)和考慮整個單元的單元層面表現(xiàn)。

實驗結(jié)果  

本文在3個閉源大模型和6個開源大模型上測試PPTC數(shù)據(jù)集。進一步的,本文測試計劃算法(零樣本思維鏈(Zero-shot CoT)和思維樹(ToT)算法)以及PPT內(nèi)容和API選擇算法是否能進一步提升GPT-4模型在PPTC上的表現(xiàn)。

從表1和表2展現(xiàn)出的結(jié)果中,可以得出以下結(jié)論:

(1)GPT-4是9個大模型中表現(xiàn)最強的模型,在創(chuàng)建新PPT文檔任務(wù)中它甚至能實現(xiàn)75%的輪次層面正確率。

(2)基于開源大模型(LLaMa-2)的進一步代碼預訓練(code-LLaMa)和對齊能夠進一步提升模型輪次層面表現(xiàn)

本文在3個閉源大模型和6個開源大模型上測試PPTC數(shù)據(jù)集。進一步的,本文測試計劃算法(零樣本思維鏈(Zero-shot CoT)和思維樹(ToT)算法)以及PPT內(nèi)容和API選擇算法是否能進一步提升GPT-4模型在PPTC上的表現(xiàn)。

從表1和表2展現(xiàn)出的結(jié)果中,可以得出以下結(jié)論:
(1)GPT-4是9個大模型中表現(xiàn)最強的模型,在創(chuàng)建新PPT文檔任務(wù)中它甚至能實現(xiàn)75%的輪次層面正確率。
(2)基于開源大模型(LLaMa-2)的進一步代碼預訓練(code-LLaMa)和對齊能夠進一步提升模型輪次層面表現(xiàn)

表1:9個大語言模型的結(jié)果?!窽D-003」是指Text-Davinci-003模型

(3)計劃算法和選擇算法能夠進一步提升GPT-4 2到5個百分點的輪次層面正確率。然而,本文發(fā)現(xiàn),盡管思維樹相對零樣本思維鏈花了超過數(shù)倍的推斷成本,它的表現(xiàn)卻并沒有明顯進一步的提升。

表2:GPT-4和基于GPT-4模型的算法的結(jié)果。'CoT'和'ToT'分別是思維鏈和思維樹算法

三個PPTC上的主要挑戰(zhàn)

進一步的,本文分析得出大模型在PPTC上遇到的三個主要的挑戰(zhàn):

1.錯誤累計導致大模型單元層面表現(xiàn)糟糕

盡管諸如GPT-4這樣的大模型在輪次層面表現(xiàn)較好,但當本文測試大模型在包含多個輪次的單元層次表現(xiàn)時,大模型表現(xiàn)普遍糟糕。

如表1所示,在創(chuàng)建新文檔任務(wù)中,GPT-4只正確完成了不到百分之23的多輪次單元。

2.大模型處理長PPT模版的能力欠佳

在PPT文檔編輯任務(wù)中,大模型需要基于給予的長PPT模板完成用戶指令。

圖4: 創(chuàng)建新的PPT文件任務(wù)(任務(wù)1)和編輯PPT模板任務(wù)(任務(wù)2)的分析結(jié)果。在子圖(a)中,本圖展示了涉及圖表、表格、圖片、位置和純文本的指令的平均基于輪次的準確度。在子圖(b)中,本圖展示了GPT-4的四種常見錯誤的比例。

然而,如表1所示,即使是GPT-4,也只實現(xiàn)了百分之38的輪次正確率,只完成了6%的多輪次單元。如圖4(b)所示,對文檔的誤解成為編輯任務(wù)的主要錯誤原因。

3.多模態(tài)指令提高了任務(wù)難度

如圖4(a)所示,大模型在處理圖表,表格,圖像,空間位置相關(guān)的指令上的表現(xiàn)遠不如處理只涉及純文本操作的指令表現(xiàn),特別是涉及到移動空間位置的指令。

如圖4(b)所示,糟糕的空間位置感知成為創(chuàng)建新文檔任務(wù)的主要錯誤原因。

總結(jié)

  1. 本文提出了PowerPoint任務(wù)完成評估測試(PPTC),用于衡量在 PowerPoint 官方軟件中的語言模型的任務(wù)完成性能。這一基準測試包含了279個多輪會話單元,涵蓋了復雜的多模式環(huán)境中的數(shù)百個多模式指令。
  2. 本文提出了PPTX-Match評估系統(tǒng),用于自動測量語言模型在PPTC中的性能。本文測試了3個閉源語言模型和6個開源語言模型,發(fā)現(xiàn)GPT-4是所有語言模型中性能最強的。
  3. 本文進一步發(fā)現(xiàn)了三個關(guān)鍵的錯誤因素:會話中的錯誤累積、長的PPT模板處理和多模態(tài)感知。這些發(fā)現(xiàn)為未來的語言模型和基于語言模型的agent系統(tǒng)提出了重要的挑戰(zhàn)。
責任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-08-08 13:04:28

2023-10-17 12:47:26

AI數(shù)據(jù)

2024-06-28 18:13:05

2024-05-20 08:20:00

OpenAI模型

2023-10-30 15:06:00

模型數(shù)據(jù)

2023-11-09 15:10:00

訓練數(shù)據(jù)

2023-03-10 13:30:01

微軟人工智能

2015-07-31 11:37:49

任務(wù)完成率

2023-03-10 13:03:09

人工智能模型

2023-09-19 13:48:31

AI數(shù)據(jù)

2025-02-13 09:40:00

2023-05-08 10:14:07

模型AI

2024-03-01 11:58:26

MLLMs大語言模型人工智能

2024-07-02 01:09:02

2023-04-28 15:27:06

微軟模型

2024-09-12 12:46:36

2023-07-23 18:55:20

ChatGPTGPT-4

2024-07-23 12:32:11

點贊
收藏

51CTO技術(shù)棧公眾號