自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

如何分析GPT4作為裁判自動化評測其他大模型的效果

人工智能
實際上,LLM-as-a-judge提供了兩個關(guān)鍵的好處:可擴展性和可解釋性,可以減少了對人類參與的需求,實現(xiàn)了可擴展的基準和快速迭代。此外,LLM充當(dāng)裁判不僅提供分數(shù)還提供解釋,使他們的輸出可以解釋。

在當(dāng)前大模型領(lǐng)域,最為普遍或者最為認可的評估方式就是使用參數(shù)更大或者GPT模型作為評估基準,用于評估其他的大模型,以滿足自動化評測的目標。

但是即使是使用GPT4等模型進行打分,也存在著各種問題,比如,使用GPT對兩個候選結(jié)果進行打分時,如果出現(xiàn)交換問題次序就可能產(chǎn)生相互沖突的結(jié)果,即:GPT模型評測時可能會偏向于某個特定位置的回答。

在文章《Judging LLM-as-a-judge with MT-Bench and Chatbot Arena》提出了3種LLM-as-a-judge的實現(xiàn)方式,它們可以獨立或組合實施:

1)成對比較(pairwise comparison)

成對比較的思想是采用下圖的prompt,使用評估LLM的能力,針對問題和給出的不同答案,來確定哪個答案更為合適或者宣布一個平局。

這種方案實際上就是內(nèi)容理解的一種綜合應(yīng)用,也是當(dāng)前內(nèi)容生成的主要研究方向之一。

圖片圖片

2)單一答案的評分(single answer grading)

單一答案評分思想在于:是讓LLM評委直接給一個答案打分單一答案。這種方案實際上在評測集的使用中非常適用,比如評估測試集的毒性,或者生成內(nèi)容與問題的相關(guān)性等等。

圖片圖片

3)參考資料指導(dǎo)下的評分(Reference-guided grading)

參考資料指導(dǎo)下的評分的思想是,在某些情況下,提供一個可參考解決方案,這個方案的提供對于評價體系可能是有益的,主要是給出一個評分的樣例。

實際上,在吳恩達老師的prompt指導(dǎo)中也提到了類似的能力,也就是通過示例提升LLM的生成效果。

prompt書寫最重要的原則就是詳細明確,其中涉及四個策略: 

1)合理使用分隔符 

2)確定輸出格式要求,如JSON或者HTML 

3)使用GPT對執(zhí)行的必要條件進行校驗,類似于開發(fā)過程中的參數(shù)校驗 

4)給出一定的示例讓GPT按照用戶的需求進行輸出

圖片圖片

可以看到這些方法,本質(zhì)上都是基于prompt在工作,也存在不同的問題,例如:

對于pairwise comparison的評價數(shù)量會猛增,當(dāng)待評估數(shù)量增加時,pairwise comparison可能缺乏可擴展性;

單一答案評分可能無法辨別特定對子之間的細微差別,而且其結(jié)果可能變得不穩(wěn)定,因為如果裁判模型發(fā)生變化,絕對分數(shù)可能比pairwise comparison結(jié)果波動更大。

更進一步的,以上的方式都對充當(dāng)評委的大模型本身提出了很高的要求。

實際上,LLM-as-a-judge提供了兩個關(guān)鍵的好處:可擴展性和可解釋性,可以減少了對人類參與的需求,實現(xiàn)了可擴展的基準和快速迭代。此外,LLM充當(dāng)裁判不僅提供分數(shù)還提供解釋,使他們的輸出可以解釋。

那么,其工作的基本原理是什么呢?

早期的工作工作《Large Language Models are not Fair Evaluators》(https://arxiv.org/pdf/2305.17926v1.pdf)表明,大型語言模型(如GPT-4)評估不同模型表現(xiàn)時存在系統(tǒng)性偏見,通過改變不同模型的答案在評價模版中的順序,可以輕松篡改它們的質(zhì)量排名,從而扭曲評估結(jié)果。如下圖所示:

圖片圖片

《Judging LLM-as-a-judge with MT-Bench and Chatbot Arena》這一工作則更進一步地分成了Position bias位置偏見、Verbosity bias啰嗦性偏見、elf-enhancement bias自我增強的偏見以及Limited capability in grading math and reasoning questions對數(shù)學(xué)和推理問題的評分能力有限四個方面,具體如下:

1)Position bias,位置偏見

與上一個工作類似,該工作也發(fā)現(xiàn),GPT4表現(xiàn)出傾向于某些位置上的結(jié)果,比如a放在b前,a的得分會更高。

圖10顯示了一個位置偏差的例子。當(dāng)問答助理A被放在第一個位置時,GPT-4認為A更好,但當(dāng)我們交換A和B的位置時,它的判決就會改變。

圖片圖片

此外,為了分析位置上的具體偏見,通過調(diào)用兩次GPT-3.5,并設(shè)置溫度為0.7(保證多樣性),在MT-bench中為每個第一輪問題構(gòu)建兩個類似的答案,然后使用兩個不同的提示語嘗試三個LLM:"default "表示默認提示,"rename "是對默認提示中的助手進行重命名,以查看偏見是在位置還是名字上。

如下表2所示,所有模型都表現(xiàn)出強烈的位置偏見。大多數(shù)LLM評委偏愛第一個位置。有趣的是,Claude-v1也表現(xiàn)出名字上的偏向,這使得它偏向于 "助理A",這一點在 "重命名"提示中得到了說明。而位置偏差可能是非常顯著的,只有GPT-4在超過60%的情況下輸出一致的結(jié)果。

圖片圖片

不過,工作中也提到,這個測試是具有挑戰(zhàn)性的,因為答案是非常相似的,有時甚至對人類來說是無法區(qū)分的,位置偏差在某些情況下不太突出。至于這種偏差的起源,懷疑它可能源于訓(xùn)練數(shù)據(jù)或Transformer從左到右的固有結(jié)構(gòu)。

2)Verbosity bias,啰嗦性偏見

啰嗦性偏見,指的是GPT4偏愛較長的、啰嗦的回答,即使不如較短的回答清晰、高質(zhì)量或準確。

那么,這個是怎么發(fā)現(xiàn)的?

該工作使用MT-bench的模型答案設(shè)計了一個 "重復(fù)列表 "攻擊。

具體的,首先從MT-bench中選擇了23個包含編號列表的示范答案,然后要求GPT-4在不增加任何新信息的情況下重寫清單,并將重寫后的新清單插入到原始清單的開頭,從而使其變得不必要的冗長。

例如,如果原始回答包含5個項目,那么新的回應(yīng)將包含10個項目,但前5個項目是由原來的5個項目改寫的。

圖11展示了一個"重復(fù)列表 "攻擊的例子,除了兩個重新措辭的片段(以紅色標示)之外,助理A的答案與助理B完全相同,如果LLM法官認為新的回答比舊的回答好,那么定義該攻擊是成功的。

圖片圖片

現(xiàn)在我們來看測試結(jié)果,表3顯示了在這種攻擊下LLM法官的失敗率,表明所有的LLM都可能容易出現(xiàn)言語偏差,盡管GPT-4的防御效果明顯好于其他。

圖片圖片

作為校準評估,該工作發(fā)現(xiàn)LLM評委能夠正確判斷相同的答案,大模型總是對兩個相同的答案返回一個平局,但不能通過更高級的 "重復(fù)列表 "攻擊。

也可以看到,GPT-3.5和Claude-v1都顯示出對較長和重復(fù)的答案的動詞性偏見,只有GPT-4成功地檢測到這種攻擊。

3)Self-enhancement bias,自我增強的偏見

自我增強的偏見,指的是GPT4可能偏愛自己產(chǎn)生的答案的效果,誰跟它更接近,他就給誰打高分。

該工作從統(tǒng)計學(xué)的角度來研究這種影響,下圖3(b)顯示了在不同的LLM評委和人類的情況下,六個模型的獲勝率(不含平局)。

圖片圖片

可以看到,與人類相比,確實觀察到一些大模型偏愛某些模型。例如:

GPT-4對自己有利,勝率高出10%;Claude-v1對自己有利,勝率高出25%。此外,他們也青睞其他模型,但GPT-3.5并不青睞自己。

不過,需要坦白的是,由于數(shù)據(jù)有限且差異較小,這些研究無法確定這些模型是否表現(xiàn)出自我增強的偏見,而且進行對照研究是具有挑戰(zhàn)性的,因為不能輕易地重新措辭以適應(yīng)另一個模型的風(fēng)格而不改變數(shù)據(jù)質(zhì)量本身。

4)Limited capability in grading math and reasoning questions,對數(shù)學(xué)和推理問題的評分能力有限

這個是很自然的,讓一群小學(xué)生來評價高中生的表現(xiàn)是一件很扯淡的事情。我們都知道,GPT4的數(shù)學(xué)和推理能力有限,這導(dǎo)致它無法對這類問題進行評分,因為他們往往不知道正確答案。

如圖12所示,在默認的提示下,GPT-4顯示出對數(shù)學(xué)問題進行評分的有限能力。盡管能夠回答問題本身,但它的判斷受到了給定答案的影響,導(dǎo)致了黃色顯示的算術(shù)錯誤。

圖片圖片

又如,圖13顯示了GPT-4對推理題評分能力有限的一個例子。盡管GPT-4知道如何解決這個問題(如果分開問的話),但它做出了錯誤的判斷,說兩個助手的錯誤答案都是正確的。

圖片圖片

上面主要針對GPT4的一些評判誤區(qū)或者說影響最終評判結(jié)果的原因和背后原理,在真實使用場景中,如果發(fā)現(xiàn)結(jié)果牽強人意或者一直不符合預(yù)期,可能也和這些原因相關(guān),可以考慮是否需要做一定修改。

本文主要來自于http://lechangxia.cc/gpt4/411.html相關(guān)的內(nèi)容,我也做了一定的修改。

責(zé)任編輯:武曉燕 來源: 陸隊長
相關(guān)推薦

2023-08-02 08:44:33

人工智能Kaggle科研繪圖

2023-04-20 14:43:38

Linux模型GPT4

2024-02-27 11:45:59

2023-05-09 15:41:03

2025-03-12 14:49:29

2023-05-08 15:36:50

模型AI

2024-06-11 09:20:48

2024-04-08 10:12:20

GPT4AgentAI

2025-03-07 08:41:50

2023-03-16 10:38:37

GPT4ChatGPT

2023-04-04 08:01:35

2021-07-13 17:38:49

算法語言模型GPT-4

2024-03-14 11:55:33

AI訓(xùn)練

2023-07-05 09:57:11

2021-07-20 12:21:20

自動化威脅瑞數(shù)信息

2023-08-14 17:38:58

百度文心一言大模型評測

2024-03-05 09:16:32

AI模型GPT-4

2023-08-17 08:00:00

2024-09-06 13:00:29

2023-05-30 11:16:15

人工智能GPT4
點贊
收藏

51CTO技術(shù)棧公眾號