自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

原作親自下場!Mistral首款開源7B Mamba模型「埃及艷后」效果驚艷

人工智能 新聞
最近,7B小模型又成為了AI巨頭們競相追趕的潮流。繼谷歌的Gemma2 7B后,Mistral今天又發(fā)布了兩個(gè)7B模型,分別是針對STEM學(xué)科的Mathstral,以及使用Mamaba架構(gòu)的代碼模型Codestral Mamba。

Mistral又驚喜上新了!

就在今天,Mistral發(fā)布了兩款小模型:Mathstral 7B和Codestral Mamba 7B。

首先是專為數(shù)學(xué)推理和科學(xué)發(fā)現(xiàn)設(shè)計(jì)的Mathstral 7B。

在MATH基準(zhǔn)測試中,它獲得了56.6%  pass@1的成績,比Minerva 540B提高了20%以上。Mathstral在MATH上的得分為68.4%,使用獎(jiǎng)勵(lì)模型得分為74.6%。

而代碼模型Codestral Mamba,是首批采用Mamba 2架構(gòu)的開源模型之一。

它是可用的7B代碼模型中最佳的,使用256k token的上下文長度進(jìn)行訓(xùn)練。

圖片

兩款模型均在Apache 2.0許可證下發(fā)布,目前權(quán)重都已上傳HuggingFace倉庫。

圖片

Hugging Face地址:https://huggingface.co/mistralai

Mathstral

有趣的是,根據(jù)官宣文章,Mathstral的發(fā)布恰好慶祝了阿基米德2311周年誕辰。

Mathstral專為STEM學(xué)科設(shè)計(jì),以解決需要復(fù)雜、多步驟推理的高級(jí)數(shù)學(xué)問題。參數(shù)僅有7B,上下文窗口為32k。

而且,Mathstral的研發(fā)還有一個(gè)重量級(jí)的合作伙伴——上周剛剛在Kaggle第一屆AI奧數(shù)競賽中得到冠軍寶座的Numina。

圖片

而且,有推特網(wǎng)友發(fā)現(xiàn),Mathstral可以正確回答「9.·11和9.9哪個(gè)更大」這個(gè)難倒一眾大模型的問題。

整數(shù)、小數(shù)分開比較,思維鏈清清楚楚,可以說是數(shù)學(xué)模型優(yōu)秀作業(yè)的典范了。

圖片

基于Mistral 7B的語言能力,Mathstral進(jìn)一步聚焦STEM學(xué)科。根據(jù)MMLU的學(xué)科分解結(jié)果,數(shù)學(xué)、物理、生物、化學(xué)、統(tǒng)計(jì)學(xué)、計(jì)算機(jī)科學(xué)等領(lǐng)域都是Mathstral的絕對優(yōu)勢項(xiàng)目。

圖片

根據(jù)官方博客文章的透露,Mathstral似乎犧牲了一些推理速度以換取模型性能,但從測評結(jié)果來看,這種權(quán)衡是值得的。

在多個(gè)數(shù)學(xué)、推理領(lǐng)域的基準(zhǔn)測試中,Mathstral打敗了Llama 3 8B、Gemma2 9B等流行的小模型,特別是在AMC 2023、AIME 2024這類數(shù)學(xué)競賽題上達(dá)到了SOTA。

圖片

而且,還可以進(jìn)一步增加推理時(shí)間以取得更好的模型效果。

如果對64個(gè)候選使用多數(shù)投票(majority voting),Mathstral在MATH上的分?jǐn)?shù)可以達(dá)到68.37%,進(jìn)一步添加額外的獎(jiǎng)勵(lì)模型,還能取得74.59%的高分。

除了HuggingFace和la Plateforme平臺(tái),還可以調(diào)用官方發(fā)布的Mistral-finetune和Mistral Inference兩個(gè)開源SDK,使用或微調(diào)模型。

Codestral Mamba

繼沿用Transformer架構(gòu)的Mixtral系列發(fā)布后,第一個(gè)采用Mamba2架構(gòu)的代碼生成模型Codestral Mamba也問世了。

而且,研發(fā)過程也得到了Mamba原作者Albert Gu和Tri Dao的協(xié)助。

有趣的是,官宣文章專門cue到了和??有關(guān)的「埃及艷后」Cleopatra七世,她就是戲劇般地用一條毒蛇終結(jié)了自己的生命。

Mamba架構(gòu)發(fā)布后,其優(yōu)越的實(shí)驗(yàn)性能得到了廣泛的關(guān)注和看好,但由于整個(gè)AI社區(qū)在Transformer上投入了太多成本,我們至今也很少看到實(shí)際采用Mamba的工業(yè)界模型。

此時(shí),Codestral Mamba恰好能為我們提供研究新架構(gòu)的全新視角。

Mamba架構(gòu)首發(fā)于2023年12月,兩位作者又在今年5月推出了更新版的Mamba-2。

與Transformer不同,Mamba模型具有線性時(shí)間推理的優(yōu)勢,并且理論上能夠建模無限長度的序列。

同為7B模型,Mathstral的上下文窗口只有32k時(shí),Codestral Mamba卻能擴(kuò)展到256k。

這種推理時(shí)間和上下文長度方面的效率優(yōu)勢,以及實(shí)現(xiàn)快速響應(yīng)的潛力,在用于提升編碼效率的實(shí)際場景中尤為重要。

Mistral團(tuán)隊(duì)正是看到了Mamba模型的這種優(yōu)勢,因而率先嘗試。從基準(zhǔn)測試來看,7B參數(shù)的Codestral Mamba不僅比其他7B模型有明顯優(yōu)勢,甚至可以和更大規(guī)模的模型掰掰手腕。

圖片

在8個(gè)基準(zhǔn)測試中,Codestral Mamba基本達(dá)到了和Code Llama 34B相匹配的效果,甚至在其中6個(gè)測試上實(shí)現(xiàn)了性能超越。

然而相比大姐姐Codestral 22B,Codestral Mamba的參數(shù)量劣勢就體現(xiàn)出來了,依舊顯得能力不足。

值得一提的是,Codestral 22B還是不到兩個(gè)月前發(fā)布的新模型,再次感嘆一下總部在巴黎的Mistral竟如此之卷。

Codestral Mamba同樣可以使用Mistral-inference部署,或者英偉達(dá)發(fā)布的快速部署API TensorRL-LLM。

圖片

GitHub地址:https://github.com/NVIDIA/TensorRT-LLM

對于本地運(yùn)行,官方博客表示,可以留意后續(xù)llama.cpp的支持。但ollama行動(dòng)迅速,已經(jīng)將Mathstral加入到了模型庫中。

圖片

面對網(wǎng)友催更c(diǎn)odestral mamba,ollama也非常給力地表示:「已經(jīng)在弄了,稍安勿躁?!?/span>

圖片

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2025-03-20 08:34:14

2024-03-25 08:00:00

2024-07-17 12:13:11

2024-07-22 09:00:00

2024-03-25 00:05:00

開源模型AI

2024-09-13 09:14:32

2024-08-13 12:49:29

2024-08-13 15:40:00

2024-07-17 16:12:22

2024-06-03 10:43:34

2023-12-24 13:56:37

2025-01-10 12:58:37

2024-07-22 07:10:00

小模型機(jī)器學(xué)習(xí)蘋果

2024-02-07 12:39:00

AI數(shù)據(jù)

2024-03-05 09:00:00

大型語言模型Mistral-7b人工智能

2024-07-18 12:53:13

2024-02-04 08:00:00

Zephyr 7B大語言模型算法

2025-02-10 14:30:00

模型數(shù)據(jù)開源

2023-06-28 21:47:54

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)