自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

LLama+Mistral+…+Yi=? 免訓(xùn)練異構(gòu)大模型集成學(xué)習(xí)框架DeePEn來了

人工智能 新聞
近期,哈工大和鵬城實驗室的研究人員提出了「Training-free 的異構(gòu)大模型集成學(xué)習(xí)框架」DeePEn。

本文的主要作者為黃毅翀。黃毅翀是哈爾濱工業(yè)大學(xué)社會計算與信息檢索研究中心博士生,鵬城實驗室實習(xí)生,師從秦兵教授和馮驍騁教授。研究方向包括大語言模型集成學(xué)習(xí)、多語言大模型,相關(guān)論文發(fā)表于自然語言處理頂級會議 ACL、EMNLP、COLING。

隨著大語言模型展現(xiàn)出驚人的語言智能,各大 AI 公司紛紛推出自己的大模型。這些大模型通常在不同領(lǐng)域和任務(wù)上各有所長,如何將它們集成起來以挖掘其互補潛力,成為了 AI 研究的前沿課題。

近期,哈工大和鵬城實驗室的研究人員提出了「Training-free 的異構(gòu)大模型集成學(xué)習(xí)框架」DeePEn。

不同于以往方法訓(xùn)練外部模塊來篩選、融合多個模型生成的回復(fù),DeePEn 在解碼過程中融合多個模型輸出的概率分布,聯(lián)合決定每一步的輸出 token。相較而言,該方法不僅能快速應(yīng)用于任何模型組合,還允許被集成模型訪問彼此的內(nèi)部表示(概率分布),實現(xiàn)更深層次的模型協(xié)作。

結(jié)果表明, DeePEn 在多個公開數(shù)據(jù)集上均能取得顯著提升,有效擴展大模型性能邊界:

圖片 

目前論文及代碼均已公開:

圖片


  • 論文標(biāo)題:Ensemble Learning for Heterogeneous LargeLanguage Models with Deep Parallel Collaboration
  • 論文地址:https://arxiv.org/abs/2404.12715
  • 代碼地址:https://github.com/OrangeInSouth/DeePEn

方法介紹

異構(gòu)大模型集成的核心難點在于如何解決模型間的詞表差異問題。為此,DeePEn 基于相對表示理論,構(gòu)建由多個模型詞表之間的共享 token 構(gòu)成的統(tǒng)一相對表示空間。在解碼階段,DeePEn 將不同大模型輸出的概率分布映射到該空間進(jìn)行融合。全程無需參數(shù)訓(xùn)練

下圖中展示了 DeePEn 的方法。給定 N 個模型進(jìn)行集成,DeePEn 首先構(gòu)建它們的轉(zhuǎn)換矩陣(即相對表示矩陣),將來自多個異構(gòu)絕對空間的概率分布映射到統(tǒng)一的相對空間中。在每個解碼步驟中,所有模型進(jìn)行前向計算并輸出 N 個概率分布。這些分布被映射到相對空間并進(jìn)行聚合。最后,聚合結(jié)果被轉(zhuǎn)換回某個模型(主模型)的絕對空間,以確定下一個 token。


圖片


圖 1:方法示意圖。其中,相對表示轉(zhuǎn)換矩陣是通過計算詞表中每個 token 與模型間共享的錨點 token 之間的詞嵌入相似度得到的。

構(gòu)建相對表示轉(zhuǎn)換

給定 N 個要集成的模型,DeePEn 首先找出所有模型詞表的交集,即共享詞集圖片,并從中抽取一個子集 A?C 或使用全部共享詞作為錨點詞集合 A=C。

對于每個模型圖片,DeePEn 計算詞表中每個 token 與錨點 token 的嵌入相似度,得到相對表示矩陣圖片。最后,為了克服離群詞的相對表示退化問題,論文作者對相對表示矩陣進(jìn)行行歸一化,通過對矩陣的每一行進(jìn)行 softmax 操作,得到歸一化相對表示矩陣圖片

相對表示融合

在每個解碼步驟中,一旦模型圖片輸出概率分布圖片,DeePEn 使用歸一化相對表示矩陣將圖片轉(zhuǎn)換為相對表示圖片

圖片

并將所有相對表示進(jìn)行加權(quán)平均以獲得聚合的相對表示:

圖片

其中圖片是模型圖片的協(xié)作權(quán)重。作者嘗試了兩種確定協(xié)作權(quán)重值的方法:(1) DeePEn-Avg,對所有模型使用相同的權(quán)重;(2) DeePEn-Adapt,根據(jù)各個模型的驗證集性能成比例地為每個模型設(shè)置權(quán)重。

相對表示逆映射

為了根據(jù)聚合的相對表示決定下一個 token,DeePEn 將其從相對空間轉(zhuǎn)換回主模型(開發(fā)集上性能最好的模型)的絕對空間。為了實現(xiàn)這種逆轉(zhuǎn)換,DeePEn 采用了基于搜索的策略,找出相對表示與聚合后的相對表示相同的絕對表示:

圖片

其中圖片表示模型圖片的絕對空間,圖片是衡量相對表示之間距離的損失函數(shù)(KL 散度)。

DeePEn 利用損失函數(shù)圖片相對于絕對表示圖片的梯度來指導(dǎo)搜索過程,并迭代地進(jìn)行搜索。具體來說,DeePEn 將搜索的起始點圖片初始化為主模型的原始絕對表示,并進(jìn)行更新:

圖片

其中 η 是稱為相對集成學(xué)習(xí)率的超參數(shù),T 是搜索迭代步數(shù)。

最后,使用更新后的絕對表示圖片來確定下一步輸出的 token。

實驗

圖片

表 1:主實驗結(jié)果。第一部分為單模型的性能,第二部分為分別對每個數(shù)據(jù)集上的 top-2 模型進(jìn)行集成學(xué)習(xí),第三部分為 top-4 模型集成。

通過實驗,論文作者得出了以下結(jié)論:

(1) 大模型在不同任務(wù)上各有所長。如表 1 所示,不同大模型在不同數(shù)據(jù)集上的表現(xiàn)存在顯著差異。例如 LLaMA2-13B 在知識問答 TriviaQA 和 NQ 數(shù)據(jù)集上取得了最高的結(jié)果,但是其他四個任務(wù)上的排名并未進(jìn)入前四。

(2) 分布融合在各個數(shù)據(jù)集上取得了一致性的提升。如表 1 所示,DeePEn-Avg 和 DeePEn-Adapt 在所有數(shù)據(jù)集上均取得了性能提升。在 GSM8K 上,通過與投票法組合使用,最終取得了 + 11.35 的性能提升。

圖片

表 2:不同模型數(shù)量下的集成學(xué)習(xí)性能。

(3) 隨著集成模型數(shù)量的增加,集成性能先增后減。作者在根據(jù)模型性能由高到低,依次將模型加入集成,然后觀察性能變化。如表 2 所示,不斷引入性能較差的模型,集成性能先增后減。

圖片

表 3:在多語言機器翻譯數(shù)據(jù)集 Flores 上,大模型與翻譯專家模型之間的集成學(xué)習(xí)。

(4) 集成大模型與專家模型有效提升特定任務(wù)性能。作者還在機器翻譯任務(wù)上對大模型 LLaMA2-13B 和多語言翻譯模型 NLLB 進(jìn)行集成。如表 3 所示,通用大模型與任務(wù)特定的專家模型之間的集成,可以顯著提升性能。

結(jié)論

當(dāng)前的大模型層出不窮,但很難有一個模型能在所有任務(wù)上全面碾壓其他模型。因此,如何利用不同模型之間的互補優(yōu)勢,成為一個重要的研究方向。本文介紹的 DeePEn 框架,解決了不同大模型在分布融合時的詞表差異問題,且無需任何參數(shù)訓(xùn)練。大量實驗表明,DeePEn 在不同任務(wù)、不同模型數(shù)量及不同模型架構(gòu)的集成學(xué)習(xí)設(shè)置中,均取得了穩(wěn)定的性能提升。

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2024-01-29 06:40:00

AI模型

2023-09-12 13:43:00

智能技術(shù)

2024-07-19 13:31:41

2024-03-04 00:00:00

GemmaAI模型

2023-11-07 11:50:14

AI訓(xùn)練

2025-01-20 07:58:51

2024-02-19 13:45:14

OpenAIGPT-2模型

2024-10-29 15:00:00

大模型數(shù)據(jù)

2024-12-26 00:46:25

機器學(xué)習(xí)LoRA訓(xùn)練

2024-11-26 09:33:44

2024-11-04 00:24:56

2024-11-27 14:30:00

模型訓(xùn)練

2023-11-14 17:51:28

AI模型

2022-07-07 14:06:39

LiBai模型庫

2025-03-24 10:55:18

2020-10-13 14:42:42

深度學(xué)習(xí)Windows人工智能

2024-01-03 18:53:13

語言模型LLM

2023-07-18 15:05:00

開源大模型

2023-03-14 13:45:14

模型AI

2024-02-27 13:38:16

微軟OpenAI模型
點贊
收藏

51CTO技術(shù)棧公眾號