自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Mamba寫代碼真的超越Transformer!原始論文入選頂流新會(huì)議

人工智能
Mistral AI剛剛推出了其第一個(gè)基于Mamba2架構(gòu)的開源模型——Codestral Mamba(7B),專搞代碼生成。

“歐洲OpenAI”和“Transformer挑戰(zhàn)者”強(qiáng)強(qiáng)聯(lián)合了!

Mistral AI剛剛推出了其第一個(gè)基于Mamba2架構(gòu)的開源模型——Codestral Mamba(7B),專搞代碼生成。

圖片

與Transformer架構(gòu)不同,Mamba架構(gòu)可進(jìn)行“線性時(shí)間推理”,理論上能夠支持無(wú)限長(zhǎng)度輸入。

Mistral AI:這也就是為啥我們用Mamba架構(gòu)推出的代碼推理模型抗打。

圖片

Mistral AI表示已經(jīng)在最多256k token上下文中測(cè)試了Codestral Mamba。

基準(zhǔn)測(cè)試中,Codestral Mamba總體性能超越CodeGemma-1.1 7B、CodeLlama 7B、DeepSeek v1.5 7B、CodeLlama 34B。

有網(wǎng)友表示,這一波是Mistral AI要帶飛Mamba架構(gòu)的節(jié)奏。

Mamba架構(gòu)作者之一、CMU助理教授Albert Gu表示:

具有較弱“tokenizations”的不同模態(tài)或數(shù)據(jù)格式(例如代碼、byte級(jí)建模)會(huì)越來(lái)越多地從壓縮模型(如SSM)中受益。

圖片

除了Codestral Mamba,Mistral AI這次還同時(shí)發(fā)布了一個(gè)新的數(shù)學(xué)模型——Mathstral(7B)。

有意思的是,網(wǎng)友讓它做這幾天大模型頻頻翻車的“9.11和9.9哪個(gè)大”的問(wèn)題,Mathstral先比較整數(shù),然后再比較小數(shù)部分,最后成功做對(duì)。

圖片

圖片

7B性能接近22BTransformer

Codestral Mamba完整基準(zhǔn)測(cè)試結(jié)果如下:

圖片

在HumanEval C++/Java/JavaScript/Bash等所有基準(zhǔn)上,Codestral Mamba全面超越CodeGemma-1.1 7B、CodeLlama 7B,且超越比它更大的CodeLlama 34B。

Mistral AI此前自家的最強(qiáng)開源編程模型Codestral 22B也沒有和Codestral Mamba拉開太大差距。

除此外,DeepSeek v1.5 7B在基準(zhǔn)中也比較突出,和Codestral Mamba打得有來(lái)有回。

DeepSeek v1.5 7B在Spider(復(fù)雜跨域語(yǔ)義分析和文本到SQL任務(wù))、HumanEval Java、HumanEval Bash、MBPP等方面優(yōu)于Codestral Mamba。

除了基準(zhǔn)測(cè)試結(jié)果,Codestral Mamba最令人關(guān)注的當(dāng)屬它是首批Mamba2架構(gòu)模型。

Mamba架構(gòu)由FlashAttention作者Tri Dao和CMU助理教授、Cartesia AI聯(lián)合創(chuàng)始人及首席科學(xué)家Albert Gu在去年年底提出。

圖片

此前,ChatGPT等Transformer架構(gòu)大模型有一大痛點(diǎn):處理長(zhǎng)文本算力消耗巨大。其背后也是因?yàn)門ransformer架構(gòu)中注意力機(jī)制的二次復(fù)雜度。

而Mamba是第一個(gè)真正實(shí)現(xiàn)匹配Transformer性能的線性時(shí)間序列模型,也是一種狀態(tài)空間模型(SSM,State Space Model)。

Mamba建立在更現(xiàn)代的適用于深度學(xué)習(xí)的結(jié)構(gòu)化SSM(S4, Structured SSM)基礎(chǔ)上,與經(jīng)典架構(gòu)RNN有相似之處。

主要有三點(diǎn)創(chuàng)新:對(duì)輸入信息有選擇性處理、硬件感知的算法、更簡(jiǎn)單的架構(gòu)。

Mamba架構(gòu)一問(wèn)世就引起了圈內(nèi)廣泛關(guān)注。Stability AI創(chuàng)始人、英偉達(dá)科學(xué)家Jim Fan等都對(duì)它的出現(xiàn)感到興奮。

圖片
圖片

Mamba初代論文年初被ICLR拒稿,當(dāng)時(shí)在圈內(nèi)引起熱議。

不過(guò),最近已經(jīng)被新生代頂流會(huì)議CoLM2024接收了。

圖片

Mamba2是其二代,狀態(tài)空間擴(kuò)大8倍,訓(xùn)練速度提高50%。

Mamba2論文中更是發(fā)現(xiàn),Transformer中的注意力機(jī)制與SSM存在著非常緊密的數(shù)學(xué)聯(lián)系,論文成功入選ICML 2024。

圖片

還發(fā)布了一個(gè)數(shù)學(xué)模型

除了Codestral Mamba,Mistral AI還同時(shí)推出了一個(gè)開源數(shù)學(xué)模型——Mathstral(7B),作為對(duì)阿基米德誕生2311周年的紀(jì)念。

Mathstral在Mistral 7B基礎(chǔ)之上,專注于STEM(科學(xué)、技術(shù)、工程、數(shù)學(xué)),上下文窗口32k。

在基準(zhǔn)測(cè)試中,Mathstral MATH得分56.6%,MMLU達(dá)到了63.47%。

重點(diǎn)是,Mathstral還可以通過(guò)更多的推理時(shí)間計(jì)算獲得更好的結(jié)果:

使用多數(shù)投票機(jī)制時(shí),Mathstral 7B在MATH測(cè)試中的得分為68.37%,而在64個(gè)候選模型中應(yīng)用一個(gè)強(qiáng)效獎(jiǎng)勵(lì)模型時(shí),得分能夠提升到74.59%。

圖片

以下是Mathstral 7B和Mistral 7B在MMLU各科目中的表現(xiàn)差異:

圖片

參考鏈接:
[1]https://mistral.ai/news/codestral-mamba/。

[2]https://mistral.ai/news/mathstral/。
[3]https://x.com/MistralAI/status/1813222156265791531。
[4]https://x.com/GuillaumeLample/status/1813231491154899012。
[5]https://x.com/theo_gervet/status/1813226968600469824。
[6]https://x.com/tuturetom/status/1813238885453033540。
[7]https://x.com/WenhuChen/status/1812562112524226569。

責(zé)任編輯:姜華 來(lái)源: 量子位
相關(guān)推薦

2024-09-03 09:46:51

2024-09-13 09:14:32

2021-09-02 10:15:50

計(jì)算平臺(tái)MaxCompute 阿里云

2025-03-10 08:47:00

模型AI訓(xùn)練

2024-05-13 10:38:08

2022-07-12 10:37:08

阿里巴巴達(dá)摩院機(jī)器學(xué)習(xí)

2024-08-13 12:49:29

2023-12-25 15:11:16

AI模型

2020-06-19 10:33:16

阿里AIICML

2021-10-13 17:53:14

AI 數(shù)據(jù)人工智能

2021-08-17 14:47:31

架構(gòu)模型數(shù)據(jù)

2021-11-23 09:30:34

架構(gòu)AI技術(shù)

2024-10-08 14:48:24

2024-07-18 21:21:29

2024-08-19 13:21:14

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)