自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

467億參數(shù)MoE追平GPT-3.5!爆火開源Mixtral模型細節(jié)首公開,中杯逼近GPT-4

人工智能
今天,Mistral AI公布了Mixtral 8x7B的技術(shù)細節(jié),不僅性能強勁,而且推理速度更快!還有更強型號的Mistral-medium也已開啟內(nèi)測,性能直追GPT-4。

今天,Mistral AI正式放出了Mixtral 8x7B的技術(shù)細節(jié)——

在大多數(shù)基準測試中,Mixtral的表現(xiàn)不僅優(yōu)于Llama 2 70B,而且推理速度提高了整整6倍!

尤其是,它在大多數(shù)標準基準測試上與GPT-3.5打平,甚至略勝一籌。

新開源的Mixtral 8x7B自帶了一些出色的表現(xiàn):

比如可以很好地處理32k長度的上下文,支持英語、法語、意大利語、德語和西班牙語,且在代碼生成方面表現(xiàn)出強大的性能。

另外,它可以微調(diào)為指令跟隨模型(instruction-following model),在MT-Bench上獲得了8.3分的好成績。

467億參數(shù)打平GPT-3.5

Mixtral是基于decoder-only架構(gòu)的稀疏專家混合網(wǎng)絡。

它的前饋模塊從8組不同的參數(shù)中進行選擇。在每一層網(wǎng)絡中,對于每個token,路由器網(wǎng)絡選擇8組中的兩組(專家),來處理token并將其輸出累加組合。

這種技術(shù)增加了模型的參數(shù)數(shù)量,同時控制了成本和延遲,因為模型只使用每個token參數(shù)集總數(shù)的一小部分。

Mixtral有46.7B的總參數(shù)量,但每個token只使用其中12.9B參數(shù)。因此,Mixtral的實際執(zhí)行速度和所需的成本,都只相當于一個12.9B的模型。

Mixtral根據(jù)從開放網(wǎng)絡中提取的數(shù)據(jù)進行預訓練——包括訓練專家網(wǎng)絡和路由模塊。

性能實測

如下圖所示,在大多數(shù)基準測試中,Mixtral與Llama 2 70B和GPT-3.5表現(xiàn)相當,其中的幾項測試結(jié)果還要優(yōu)于另外兩個模型。

圖片圖片

下圖展示了模型生成質(zhì)量與推理消耗成本的關(guān)系。與Llama 2相比,Mistral 7B和Mixtral 8x7B表現(xiàn)出自己高能效的優(yōu)勢。

圖片圖片

更加詳細的比較結(jié)果看下面的表格:

圖片圖片

下面來看下模型在幻覺和偏見問題上的表現(xiàn)。

公平起見,為了避免微調(diào)或者偏好建模帶來的影響,這里使用BBQ和BOLD來測試基本模型的性能。

圖片圖片

從上面的結(jié)果可以看出,與Llama 2相比,Mixtral更真實,并且在BBQ基準上表現(xiàn)出更少的偏差。

另外,Mixtral在BOLD上表現(xiàn)出比Llama 2更積極的情緒,每個維度的差異相似。

圖片圖片

上表中,在各種支持的語言上與Llama 2進行PK,Mixtral 8x7B可以說是「精通」法語、德語、西班牙語、意大利語和英語。

本次發(fā)布的Mixtral 8x7B Instruct和Mixtral 8x7B,已通過監(jiān)督微調(diào)和直接偏好優(yōu)化(DPO)進行了優(yōu)化,并實現(xiàn)了指令的跟隨。

在MT-Bench上,它的得分達到了8.30——是目前開源模型的最好成績,性能可與GPT-3.5相媲美。

用戶還可以通過提示的方式,進一步約束Mixtral,從而構(gòu)建一些需要嚴格審核級別的應用程序。

另外,為了使社區(qū)能夠使用完全開源的堆棧運行Mixtral,開發(fā)人員提交了對vLLM項目的更新,并集成了Megablocks CUDA內(nèi)核以實現(xiàn)高效推理。

逼近GPT-4,「中杯」開啟內(nèi)測

與此同時,Mistral AI還開放了首個平臺服務的測試版——la plateforme。

其中,平臺提供了三個基于指令生成文本的聊天模型,以及一個嵌入模型。

目前,mistral-tiny和mistral-small已經(jīng)正式發(fā)布,而性能更強的mistral-medium還處在測試階段。

這些模型首先在開放網(wǎng)絡抽取的數(shù)據(jù)上進行預訓練,隨后通過標注進行指令微調(diào),并融合了最為有效的對齊技術(shù)(如高效微調(diào)、直接偏好優(yōu)化)。

- Mistral-tiny

基于Mistral 7B Instruct v0.2的Mistral-tiny是最具性價比的模型,它在MT-Bench上的得分為7.6,但僅支持英語。

- Mistral-small

作為最新開源的模型,Mixtral 8x7B在MT-Bench上的得分達到了8.3,并支持英語、法語、意大利語、德語、西班牙語和代碼生成。

- Mistral-medium

這是Mistral AI推出的最強開源模型,雖然目前還處在原型階段,但它在主流評測上已經(jīng)可以實現(xiàn)對GPT-3.5的碾壓了!

Mistral-medium在MT-Bench上拿下了8.6的高分,同樣支持英語、法語、意大利語、德語、西班牙語和代碼生成。

圖片圖片

- Mistral-embed

除了文本生成模型外,Mistral還提供了一個具有1024嵌入維度的嵌入模型。

在設計模型時,團隊著重增強了它的檢索功能,從而在MTEB上實現(xiàn)了高達55.26的檢索得分。

從測試到全面開放

從今天起,任何人都可以注冊并使用Mistral的API。

該API與其主要競品類似,并且支持Python和Javascript客戶端庫,從而讓用戶可以方便地檢查模型端點。

此外,Mistral還允許用戶設置系統(tǒng)提示,以便在模型輸出中實施更高級別的內(nèi)容審查。這一功能對于某些應用來說非常重要。

不過,由于平臺還處在測試階段,使用過程中可能會出現(xiàn)一些小的問題。

致謝

感謝英偉達在TensorRT-LLM和Triton的整合,以及使專家稀疏混合模型與TRT-LLM兼容方面,提供的支持。

網(wǎng)友熱議

鑒于Mistral-Medium的強力表現(xiàn),有網(wǎng)友翻出了GPT-4在相關(guān)測試中的分數(shù):

圖片

圖片圖片

結(jié)果,Mistral-Medium在Winogrande基準測試中優(yōu)于GPT-4。

由于Mistral-Medium的能力貌似可與GPT-4一戰(zhàn),所以有網(wǎng)友自然開始比較兩者的價格。

圖片圖片

圖片圖片

這位網(wǎng)友表示Mistral-Medium的價格約為GPT4-turbo價格的1/4,比自己預期的要昂貴。

對此,也有網(wǎng)友表示反對:「恕我直言,這個價格很公道。小規(guī)模模型和GPT-3.5相當,并且更便宜。中等的價格則要高很多,但仍然只有GPT4-turbo的1/4?!?/span>

圖片圖片

另外也有網(wǎng)友討論和猜測新的Mixtral 8x7B的技術(shù)內(nèi)幕:

圖片圖片

通過比較Mixtral 8x7B和Mistral 7B每層的相似度,這位網(wǎng)友指出Mistral可能已經(jīng)大規(guī)模地進行了稀疏的升級再造工作。

圖片圖片

「兩個模型的權(quán)重之間的顯著相關(guān)性證明了模型的成功重用。這種方法可以賦予OSS社區(qū)自己強大的MoE!希望我們能盡快看到類似于GPT-4的開源質(zhì)量!」

參考資料:https://mistral.ai/news/mixtral-of-experts/

責任編輯:武曉燕 來源: 新智元
相關(guān)推薦

2023-12-12 13:16:00

模型訓練

2023-12-11 19:08:59

AI模型

2023-08-06 08:06:30

OpenAIChatGPTGPT-4

2023-03-14 13:45:14

模型AI

2023-09-06 16:44:03

2023-06-21 13:37:41

模型研究

2023-05-05 09:42:12

2024-01-26 08:36:07

OpenAIGPT-4?人工智能

2023-10-31 15:26:02

阿里云通義千問

2024-04-25 13:58:51

開源模型Vicuna

2023-07-04 14:01:26

GPT-4模型

2024-04-19 09:17:33

AI模型

2023-06-27 09:14:52

微軟LLM AI 模型

2024-01-19 12:51:00

AI數(shù)據(jù)

2023-05-15 12:32:29

GPT-4開源

2023-03-15 10:26:00

模型開源

2024-03-28 11:15:36

開源AI

2023-06-21 13:22:16

GPT-4模型

2023-06-19 08:19:50

2023-03-28 08:23:38

點贊
收藏

51CTO技術(shù)棧公眾號