自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

史上最嚴(yán)“中文真實(shí)性評估”:OpenAI o1第1豆包第2,其它全部不及格

人工智能
為了評估現(xiàn)有大語言模型的真實(shí)性能力,淘天集團(tuán)的研究者們提出了第一個中文簡短事實(shí)性基準(zhǔn)(即中文簡短問答),它包括6個主要主題和99個子主題

新的大語言模型(LLM)評估基準(zhǔn)對于跟上大語言模型的快速發(fā)展至關(guān)重要。

近日,淘寶天貓集團(tuán)的研究者們提出了中文簡短問答(Chinese SimpleQA),這是首個全面的中文基準(zhǔn),具有“中文、多樣性、高質(zhì)量、靜態(tài)、易于評估”五個特性,用于評估語言模型回答簡短問題的真實(shí)性能力。

研究人員表示,中文簡短問答能夠指導(dǎo)開發(fā)者更好地理解其模型的中文真實(shí)性能力,并促進(jìn)基礎(chǔ)模型的發(fā)展。

論文地址:https://arxiv.org/abs/2411.07140

引言

人工智能發(fā)展中的一個重大挑戰(zhàn)是確保語言模型生成的回答在事實(shí)上準(zhǔn)確無誤。當(dāng)前前沿模型有時會產(chǎn)生錯誤輸出或缺乏證據(jù)支持的答案,這就是所謂的“幻覺”問題,極大地阻礙了通用人工智能技術(shù)(如大語言模型)的廣泛應(yīng)用。此外,評估現(xiàn)有大語言模型的真實(shí)性能力也頗具難度。例如,大語言模型通常會生成冗長的回復(fù),包含大量事實(shí)性陳述。最近,為解決上述評估問題,OpenAI發(fā)布了簡短問答基準(zhǔn)(SimpleQA),其中包含4326個簡潔且尋求事實(shí)的問題,使得衡量真實(shí)性變得簡單可靠。

然而,簡短問答基準(zhǔn)主要針對英語,導(dǎo)致對大語言模型在其他語言中的能力了解有限。此外,受近期幾個中文大語言模型基準(zhǔn)(如C-Eval、CMMLU)的啟發(fā),為了評估大語言模型在中文語境下的真實(shí)性能力,淘天集團(tuán)的研究人員提出了中文簡短問答基準(zhǔn)。該基準(zhǔn)由3000個高質(zhì)量問題組成,涵蓋從人文到科學(xué)工程等6個主要主題。具體而言,中文簡短問答的顯著主要特征如下:

  • 中文特性:專注于中文語言,能夠全面評估現(xiàn)有大語言模型在中文語境下的真實(shí)性能力。
  • 多樣性:涵蓋6個主題,即“中國文化”“人文”“工程、技術(shù)與應(yīng)用科學(xué)”“生活、藝術(shù)與文化”“社會”和“自然科學(xué)”。這些主題總共包括99個細(xì)粒度的子主題,體現(xiàn)了中文簡短問答的多樣性。
  • 高質(zhì)量:實(shí)施了全面且嚴(yán)格的質(zhì)量控制流程,以確保中文簡短問答的質(zhì)量和準(zhǔn)確性。
  • 靜態(tài)性:與SimpleQA類似,為保持中文簡短問答的常青特性,所有參考答案不會隨時間改變。
  • 易于評估:與SimpleQA類似,由于問題和答案都非常簡短,通過現(xiàn)有大語言模型(如OpenAI API)進(jìn)行評分的過程快速便捷。

研究人員在中文簡短問答上對現(xiàn)有大語言模型進(jìn)行了全面評估和分析,得出了以下一些有洞察力的發(fā)現(xiàn):

  • 中文簡短問答具有挑戰(zhàn)性:只有o1-preview和Doubao-pro-32k達(dá)到及格分?jǐn)?shù)(在正確指標(biāo)上分別為63.8%和61.9%),許多閉源和開源大語言模型仍有很大的改進(jìn)空間。
  • 模型越大效果越好:基于Qwen2.5系列、InternLM系列、Yi-1.5系列等的結(jié)果,作者觀察到模型越大性能越好。
  • 更大的模型更校準(zhǔn):作者觀察到o1-preview比o1-mini更校準(zhǔn),GPT-4o比GPT-4o-mini更校準(zhǔn)。
  • 檢索增強(qiáng)生成(RAG)很重要:當(dāng)將RAG策略引入現(xiàn)有大語言模型時,不同大語言模型之間的性能差距顯著縮小。例如,對于GPT-4o和Qwen2.5-3B,使用RAG后性能差距從42.4%縮小到9.3%。
  • 存在對齊代價:現(xiàn)有的對齊或后訓(xùn)練策略通常會降低語言模型的真實(shí)性。
  • SimpleQA和中文簡短問答的排名不同:幾個專注于中文的大語言模型(Doubao-pro-32k和GLM-4-Plus)的性能接近高性能的o1-preview。特別是在“中國文化”主題上,這些中文社區(qū)大語言模型明顯優(yōu)于GPT或o1系列模型。

中文簡短問答

概述

圖片圖片

中文簡短問答的類別分布,包含六個主要主題,每個主要主題包含多個二級子主題。在表1中,作者將中文簡短問答與幾個主流的大語言模型評估基準(zhǔn)進(jìn)行了比較,這表明中文簡短問答是第一個專注于評估大語言模型中中文知識邊界的基準(zhǔn)。

數(shù)據(jù)收集

圖片圖片

如圖2所示,中文簡短問答的數(shù)據(jù)收集過程涉及自動構(gòu)建和人工驗(yàn)證。自動階段包括:(1)提取和過濾相關(guān)知識內(nèi)容,(2)自動生成問題-答案對,(3)根據(jù)預(yù)定義標(biāo)準(zhǔn)使用大語言模型驗(yàn)證這些對,(4)執(zhí)行檢索增強(qiáng)生成(RAG)驗(yàn)證,以及(5)進(jìn)行難度篩選。

具體而言,首先,作者從各種知識領(lǐng)域(如維基百科)收集大量知識豐富的文本內(nèi)容,并使用質(zhì)量評估模型過濾掉低質(zhì)量數(shù)據(jù)。然后,作者提示大語言模型使用這些高質(zhì)量知識內(nèi)容生成問題-答案對。之后,為確保中文簡短問答的質(zhì)量,作者使用大語言模型去除不符合預(yù)定義標(biāo)準(zhǔn)要求的樣本。通過這種方式,可以獲得大量初步篩選后的知識問題-答案對。同時,為了提高答案的質(zhì)量,部署外部檢索工具(即搜索引擎)來收集更多樣化的信息,這引導(dǎo)大語言模型基于RAG系統(tǒng)評估答案的事實(shí)正確性。具體來說,應(yīng)用LlamaIndex作為檢索方法,以谷歌和必應(yīng)的搜索結(jié)果作為數(shù)據(jù)源。關(guān)于生成和驗(yàn)證的詳細(xì)信息可以在附錄A中找到。此外,作者過濾一些簡單樣本以發(fā)現(xiàn)大語言模型的知識邊界并提高中文簡短問答的難度。具體來說,如果一個問題可以被四個大模型正確回答,則認(rèn)為它是一個簡單問題并將其丟棄。

值得注意的是,問題-答案對的構(gòu)建基于以下標(biāo)準(zhǔn):

  • 答案必須客觀且唯一:問題應(yīng)與客觀世界的事實(shí)知識相關(guān),不受個人主觀觀點(diǎn)影響。例如,以“你認(rèn)為……怎么樣?”或“你如何評價……?”開頭的問題是不合適的。此外,每個問題的答案必須是唯一的,排除多個正確答案的可能性。例如,“朱祁鎮(zhèn)在哪一年登上皇位?”這個問題是不充分的,因?yàn)樗袃蓚€可能的答案:1435年和1457年。
  • 答案必須不隨時間變化:答案應(yīng)始終反映永恒的事實(shí),不受提問時間的影響。例如,“碳的原子序數(shù)是多少?”,答案“6”始終不變。相比之下,關(guān)于時事的問題,如“某個國家的現(xiàn)任總統(tǒng)是誰?”是不合適的,因?yàn)槠浯鸢笗S時間變化。
  • 問題必須具有挑戰(zhàn)性:問題不應(yīng)過于簡單,設(shè)計(jì)的查詢需要全面評估模型的知識深度。
  • 問題必須截至2023年可回答:每個問題必須在2023年12月31日前可回答,以確保對在此日期后訓(xùn)練的數(shù)據(jù)的模型進(jìn)行公平評估。

2.3質(zhì)量控制

在自動數(shù)據(jù)收集之后,采用人工驗(yàn)證來提高數(shù)據(jù)集質(zhì)量。具體來說,每個問題由兩個人工注釋者獨(dú)立評估。首先,注釋者確定問題是否符合上述預(yù)定義標(biāo)準(zhǔn)。如果任何一個注釋者認(rèn)為問題不符合要求,則丟棄該樣本。隨后,兩個注釋者都使用搜索引擎檢索相關(guān)信息并制定答案。在此階段,注釋者應(yīng)使用權(quán)威來源(如維基百科、百度百科)的內(nèi)容,并且每個注釋者必須提供至少兩個支持性URL。如果注釋者的答案不一致,則由第三個注釋者審查該樣本。最終注釋由第三個注釋者根據(jù)前兩個評估確定。最后,將人工注釋結(jié)果與大語言模型生成的回復(fù)進(jìn)行比較,僅保留完全一致的問題-答案對。這個嚴(yán)格的人工驗(yàn)證過程確保了數(shù)據(jù)集保持高準(zhǔn)確性并符合既定標(biāo)準(zhǔn)。

在構(gòu)建和注釋中文簡短問答的整個過程中,許多低質(zhì)量的問題-答案對被丟棄。具體來說,最初生成了10000對。經(jīng)過使用不同模型進(jìn)行難度評估后,大約保留了6310對,其中約37%的較簡單數(shù)據(jù)被丟棄。在此之后,經(jīng)過基于規(guī)則的驗(yàn)證和基于模型的RAG驗(yàn)證,又刪除了2840個樣本,這意味著僅剩下約35%的原始生成數(shù)據(jù)。最后,經(jīng)過徹底和嚴(yán)格的人工審查,僅保留了約3000個樣本,約占原始數(shù)據(jù)集的30%。

2.4數(shù)據(jù)集統(tǒng)計(jì)

圖片圖片

表2展示了中文簡短問答的統(tǒng)計(jì)數(shù)據(jù)。共有3000個樣本,中文簡短問答在六個主要主題上的數(shù)據(jù)分布相對均衡,這可以有效地評估大語言模型在各個領(lǐng)域的知識邊界。此外,該數(shù)據(jù)集中問題和參考答案的長度分布都非常短,這是基于知識查詢的特點(diǎn)。值得注意的是,使用中文簡短問答評估模型需要最少的輸入和輸出標(biāo)記,從而導(dǎo)致非常低的評估計(jì)算和時間成本。

2.5評估指標(biāo)

與SimpleQA類似,中文簡短問答也采用以下五個評估指標(biāo):

  • 正確(CO):預(yù)測答案完全包含參考答案,且不引入任何矛盾元素。
  • 未嘗試(NA):預(yù)測答案未完全給出參考答案,但與參考答案不存在矛盾元素。
  • 不正確(IN):預(yù)測答案與參考答案矛盾,即使矛盾可以解決。
  • 嘗試后正確(CGA):該指標(biāo)是在嘗試回答的問題中準(zhǔn)確回答問題的比例。
  • F分?jǐn)?shù):該指標(biāo)表示正確和嘗試后正確之間的調(diào)和平均值。

3.實(shí)驗(yàn)

3.1基線模型

作者評估了17個閉源大語言模型(即o1-preview、Doubao-pro-32k、GLM-4-Plus、GPT-4o、Qwen-Max、Gemini-1.5-pro、DeepSeek-V2.5、Claude-3.5-Sonnet、Yi-Large、moonshot-v1-8k、GPT-4-turbo、GPT-4、Baichuan3-turbo、o1-mini、Doubao-lite-4k、GPT-4o-mini、GPT-3.5)和24個開源大語言模型(即Qwen2.5系列、InternLM2.5系列、Yi-1.5系列、LLaMA3系列、DeepSeek系列、Baichuan2系列、Mistral系列、ChatGLM3和GLM-4)。

3.2主要結(jié)果

圖片圖片

如表3所示,論文提供了不同大語言模型在中文簡短問答上的性能結(jié)果。具體來說,與SimpleQA類似,作者提供了五個評估指標(biāo)的總體結(jié)果。

此外,論文還報告了六個主題的F分?jǐn)?shù),以分析這些大語言模型的細(xì)粒度真實(shí)性能力。在表3中,有以下有洞察力和有趣的觀察結(jié)果:

  • o1-preview表現(xiàn)最佳:o1-preview在中文簡短問答上取得了最佳性能,并且?guī)讉€近期專注于中文的閉源大語言模型(Doubao-pro-32k和GLM-4-Plus)的性能結(jié)果與o1-preview非常接近。
  •  “mini”系列模型表現(xiàn)較差:很明顯,“mini”系列模型(o1-mini、GPT-4o-mini)的結(jié)果比相應(yīng)的更大模型(o1-preview、GPT-4o)低,這也表明這些“mini”系列模型不注重記憶事實(shí)性知識。

圖片圖片

圖片圖片

  • 模型越大性能越好:基于許多模型系列(如GPT、Qwen2.5、InternLM2.5、Yi-1.5),我們可以得出更大的大語言模型會導(dǎo)致更好的性能這一結(jié)論。
  • 小模型在“未嘗試”上得分較高:小型大語言模型通常在“未嘗試(NA)”上得分較高。o1-mini、InternLM2.5-1.8B的NA分?jǐn)?shù)分別為20.5和9.3,遠(yuǎn)高于相應(yīng)更大模型的分?jǐn)?shù)(o1-preview為8.1,Qwen2.5-72B為1.8)。
  • 不同子主題性能差異顯著:不同大語言模型在不同子主題上存在顯著的性能差異。值得注意的是,中文社區(qū)大語言模型(如Doubao-pro-32k、GLM-4-Plus、Qwen-Max、Deepseek)在“中國文化(CC)”子主題上明顯優(yōu)于GPT或o1模型。相比之下,o1在與科學(xué)相關(guān)的子主題(如“工程、技術(shù)與應(yīng)用科學(xué)(ETAS)”和“自然科學(xué)(NS)”)上具有顯著優(yōu)勢。

此外,論文還在圖3中提供了六個主題的詳細(xì)結(jié)果(CO和CGA指標(biāo))。

3.3進(jìn)一步分析

3.3.1校準(zhǔn)分析

圖片圖片

對于不同大語言模型的校準(zhǔn),與SimpleQA類似,作者指示模型在回答問題時提供相應(yīng)的置信水平(從0到100),以衡量模型對其答案的信心(見附錄B中的提示)。我們知道,一個完美校準(zhǔn)的模型的置信度(%)應(yīng)該與其答案的實(shí)際準(zhǔn)確性相匹配。圖4中的左圖說明了校準(zhǔn)性能,這表明GPT-4o比GPT-4o-mini校準(zhǔn)得更好,o1-preview比o1-mini校準(zhǔn)得更好。對于Qwen2.5系列,校準(zhǔn)順序?yàn)镼wen2.5-72B>Qwen2.5-32B>Qwen2.5-7B>Qwen2.5-3B,這表明更大的模型尺寸會導(dǎo)致更好的校準(zhǔn)。此外,對于所有評估模型,它們在置信度>50的范圍內(nèi)的置信度低于完美校準(zhǔn)線,這意味著它們都高估了其回復(fù)的準(zhǔn)確性,存在過度自信的情況。

3.3.2測試時間計(jì)算分析

論文還評估了不同模型在增加測試時間計(jì)算時與回復(fù)準(zhǔn)確性的關(guān)系。具體來說,從中文簡短問答中隨機(jī)抽取50個樣本,對于每個樣本,模型被要求獨(dú)立回答100次。然后,使用最佳N法隨著推理次數(shù)的增加獲得模型的回復(fù)準(zhǔn)確性。結(jié)果如圖4中的右圖所示。作者觀察到,隨著推理次數(shù)的增加,所有模型的回復(fù)準(zhǔn)確性都有所提高,并最終達(dá)到一個上限。這對于中文簡短問答來說是合理的,因?yàn)樗鼘iT用于探測模型知識的邊界。

3.3.3檢索增強(qiáng)生成(RAG)效果分析

圖片圖片

在這項(xiàng)研究中,論文探索了檢索增強(qiáng)生成(RAG)策略在提高大語言模型在中文簡短問答數(shù)據(jù)集上的事實(shí)準(zhǔn)確性方面的有效性。具體來說,作者基于LlamaIndex重現(xiàn)了一個RAG系統(tǒng),并整合了谷歌搜索API。如圖5所示,所有模型在使用RAG后準(zhǔn)確性都有顯著提高。例如,Qwen2.5-3B的性能提高了三倍多。值得注意的是,幾乎所有使用RAG的模型都優(yōu)于原生的GPT-4o模型。同時,RAG的應(yīng)用也顯著降低了模型之間的性能差距。例如,使用RAG的Qwen2.5-3B與使用RAG的Qwen2.5-72B之間的F分?jǐn)?shù)差異僅為6.9%。這表明RAG大大縮小了模型之間的性能差距,使較小的模型在使用RAG增強(qiáng)時也能實(shí)現(xiàn)高性能。總體而言,這表明RAG是提高大語言模型真實(shí)性的有效捷徑。

圖片圖片

3.3.4對齊代價分析

最近,先前的研究(OpenAI,2023;Song等人,2023)發(fā)現(xiàn),對齊可能會導(dǎo)致語言模型能力的下降,即所謂的“對齊代價”。為了說明對齊對真實(shí)性的影響,作者對預(yù)訓(xùn)練模型和經(jīng)過監(jiān)督微調(diào)(SFT)或強(qiáng)化學(xué)習(xí)從人類反饋(RLHF)訓(xùn)練的對齊模型進(jìn)行了比較性能分析。如圖6所示,不同模型在訓(xùn)練后表現(xiàn)出不同的趨勢,但大多數(shù)模型都有顯著下降。其中,Baichuan2系列模型下降最為顯著,Baichuan2-7B和Baichuan2-13B的F分?jǐn)?shù)分別降低了47%和28%。這反映出當(dāng)前大多數(shù)大語言模型的對齊訓(xùn)練在產(chǎn)生知識幻覺方面仍然存在明顯缺陷,這進(jìn)一步反映了此次數(shù)據(jù)集的必要性。

3.3.5子主題結(jié)果分析

如2.2節(jié)所述,該基準(zhǔn)涵蓋了總共99個子主題,可以全面檢測模型在各個領(lǐng)域的知識水平。圖7展示了o1模型和七個著名的中文社區(qū)模型在幾個常見領(lǐng)域內(nèi)的性能比較。首先,從整體上看,o1-preview模型在這些領(lǐng)域中表現(xiàn)出最全面的性能,Doubao模型緊隨其后。相比之下,Moonshot模型總體性能最弱。其次,在具體領(lǐng)域方面,中文社區(qū)模型和o1模型在計(jì)算機(jī)科學(xué)和醫(yī)學(xué)等領(lǐng)域存在顯著差距。然而,在教育和經(jīng)濟(jì)等領(lǐng)域,這種差距最小。值得注意的是,在教育領(lǐng)域,一些中文社區(qū)模型優(yōu)于o1-preview,突出了它們在特定垂直領(lǐng)域取得成功的潛力。最后,在具體模型方面,Moonshot模型在數(shù)學(xué)、法律和娛樂等領(lǐng)域明顯較弱,而Baichuan模型在娛樂領(lǐng)域也表現(xiàn)不佳。Yi-Large模型在教育領(lǐng)域表現(xiàn)出色,o1模型在其他領(lǐng)域保持最強(qiáng)性能。評估模型在基準(zhǔn)數(shù)據(jù)集內(nèi)不同領(lǐng)域的性能使用戶能夠確定最適合其特定需求的模型。

3.3.6中文簡短問答與SimpleQA的比較

圖片圖片

論文還比較了各種模型在SimpleQA和中文簡短問答上的排名差異。如圖8所示,這些兩個基準(zhǔn)上的模型性能存在顯著差異。例如,Doubao-pro-32k在中文簡短問答上的排名顯著提高,從第12位上升到第2位(+10)。相反,GPT-4在中文簡短問答上的性能下降,從第3位下降到第9位(-6)。這些差異強(qiáng)調(diào)了在不同語言的數(shù)據(jù)集上評估模型的重要性,以及研究優(yōu)化模型在不同語言環(huán)境中性能的必要性。值得注意的是,o1-preview在兩個數(shù)據(jù)集上始終保持領(lǐng)先地位,表明其對不同語言上下文的穩(wěn)健性和適應(yīng)性。此外,大多數(shù)中文社區(qū)開發(fā)的模型(如Qwen-Max、GLM-4-Plus、Yi-Large、Doubao-pro-32k)在SimpleQA上的表現(xiàn)優(yōu)于在簡短問答上的表現(xiàn),展示了它們在中文任務(wù)上的競爭力。

4.相關(guān)工作

-大語言模型真實(shí)性:大語言模型真實(shí)性是指大語言模型產(chǎn)生遵循事實(shí)內(nèi)容的能力,包括常識、世界知識和領(lǐng)域事實(shí),并且這些事實(shí)內(nèi)容可以通過權(quán)威來源(如維基百科、教科書)得到證實(shí)。最近的作品探索了大語言模型作為事實(shí)知識庫的潛力(Yu等人,2023;Pan等人,2023)。具體而言,現(xiàn)有研究主要集中在對大語言模型真實(shí)性的定性評估(Lin等人,2022;Chern等人,2023)、對知識存儲機(jī)制的研究(Meng等人,2022;Chen等人,2023)以及對知識相關(guān)問題的分析(Gou等人,2023)。

-真實(shí)性基準(zhǔn):已經(jīng)提出了許多真實(shí)性基準(zhǔn)(Hendrycks等人,2021;Zhong等人,2023;Huang等人,2023;Li…等人,2023b;Srivastava等人,2023;Yang等人,2018)。例如,MMLU(Hendrycks等人,2021)用于測量在各種不同任務(wù)上的多任務(wù)準(zhǔn)確性。TruthfulQA(Lin等人,2022)專注于評估語言模型生成答案的真實(shí)性。此外,HaluEval(Li等人,2023c)用于檢查大語言模型產(chǎn)生幻覺的傾向。最近,SimpleQA(Wei等人,2024)被提出用于測量大語言模型中的簡短事實(shí)性。然而,SimpleQA僅關(guān)注英語領(lǐng)域。相比之下,中文簡短問答旨在全面評估中文語境下的真實(shí)性。

結(jié)論

為了評估現(xiàn)有大語言模型的真實(shí)性能力,淘天集團(tuán)的研究者們提出了第一個中文簡短事實(shí)性基準(zhǔn)(即中文簡短問答),它包括6個主要主題和99個子主題。此外,中文簡短問答主要具有五個重要特征(即中文、多樣性、高質(zhì)量、靜態(tài)和易于評估)。基于中文簡短問答,研究人員全面評估了現(xiàn)有40多個大語言模型在真實(shí)性方面的性能,并提供了詳細(xì)分析,以證明中文簡短問答的優(yōu)勢和必要性。在未來,研究人員將研究提高大語言模型的真實(shí)性,并探索將中文簡短問答擴(kuò)展到多語言和多模態(tài)設(shè)置。

論文地址:https://arxiv.org/abs/2411.07140

責(zé)任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2025-04-18 09:13:00

2024-11-07 15:40:00

2024-09-24 11:01:03

2024-11-20 14:00:00

模型測評

2025-01-23 10:45:52

2024-10-05 00:00:00

2024-09-19 18:03:31

2025-02-03 14:17:27

2024-10-06 13:40:00

AI模型

2024-12-05 10:16:14

2010-04-20 21:48:48

2011-12-14 20:23:31

HTC

2024-10-22 18:05:59

2024-07-16 13:24:38

2024-09-13 10:06:21

2024-12-09 11:06:31

2024-12-18 18:29:12

2024-11-25 15:50:00

模型訓(xùn)練

2024-09-25 09:30:16

2024-11-29 13:57:38

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號