自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

120億Stable LM 2上線即開源!2萬億token訓練,碾壓Llama 2 70B

人工智能 新聞
Stability AI推出Stable LM 2 12B模型,作為其新模型系列的進一步升級,該模型基于七種語言的2萬億Token進行訓練,擁有更多參數(shù)和更強性能,據(jù)稱在某些基準下能超越Llama 2 70B。

繼16億輕量級Stable LM 2推出之后,12B參數(shù)的版本在今天亮相了。

見狀,不少網(wǎng)友紛紛喊話:干的漂亮!但,Stable Diffusion 3啥時候出???

圖片

總得來說,Stable LM 2 12B參數(shù)更多,性能更強。

120億參數(shù)版本包含了基礎模型和指令微調模型,并在七種多語言,高達2萬億Token數(shù)據(jù)集上完成訓練。

在基準測試中,其性能趕超Llama 2 70B等開源模型。

官博介紹,最新版本的模型兼顧了性能、效率、內存需求和速度,同時繼續(xù)采用了Stable LM 2 1.6B模型的框架。

通過這次更新,研究人員還為開發(fā)者提供了一個透明而強大的工具,以推動AI語言技術的創(chuàng)新。

圖片

模型地址:https://huggingface.co/stabilityai/stablelm-2-12b

雖然目前只支持4K的上下文窗口,但你先別急。

Stability AI表示很快就會推出更長的版本,并且可以第一時間在Hugging Face上獲取。

圖片

12B參數(shù)即可實現(xiàn)SOTA

Stable LM 2 12B是一個專為處理多種語言任務設計的高效開源模型,它能夠在大多數(shù)常見硬件上流暢運行。

值得一提的是,Stable LM 2 12B可以處理通常只有大模型才能完成的各種任務。

比如混合專家模型(MoE),往往需要大量的計算和內存資源。

此外,指令微調版本在工具使用,以及函數(shù)調用展現(xiàn)出強大的能力,可以適用于各種用途,包括作為檢索RAG系統(tǒng)的核心部分。

性能評估

在性能方面,參與對比的有Mixtral(MoE,總共47B/激活13B)、Llama2(13B和70B)、Qwen 1.5(14B)、Gemma(8.5B)和Mistral(7B)。

根據(jù)Open LLM Leaderboard和最新修正的MT-Bench基準測試的結果顯示,Stable LM 2 12B在零樣本以及少樣本的任務上展現(xiàn)了出色的性能。

圖片

MT Bench

圖片

Open LLM Leaderboard

圖片

Open LLM Leaderboard

圖片

0-Shot NLP Tasks

在這個新版本中,他們將StableLM 2系列模型擴展到了12B類別,提供了一個開放、透明的模型,在功率和精度方面絲毫不打折扣。

Stable LM 2 1.6B技術報告

最初發(fā)布的Stable LM 2 1.6B已經在Open LLM 排行榜上取得了領先地位,證明了其在同類產品中的卓越性能。

圖片

論文地址:https://arxiv.org/abs/2402.17834

模型預訓練

訓練大模型(LLM)的第一階段主要是學習如何利用大量不同的數(shù)據(jù)源來預測序列中的下一個token,這一階段也被稱之為訓練。

它使模型能夠構建適用于基本語言功能甚至更高級的生成和理解任務的通用內部表示。

訓練

研究人員按照標準的自回歸序列建模方法對Stable LM 2進行訓練,以預測下一個token。

他們從零開始訓練模型,上下文長度為4096,受益于FlashAttention-2的高效序列并行優(yōu)化。

訓練以BFloat16混合精度進行,同時將all-reduce操作保持在FP32中。

數(shù)據(jù)

模型性能受訓練前數(shù)據(jù)設計決策的影響,包括源選擇和采樣權重。

訓練中所用的數(shù)據(jù)均為公開數(shù)據(jù),大部分訓練數(shù)據(jù)由其他LLM訓練中使用的數(shù)據(jù)源組成,其中包括德語(DE)、西班牙語(ES)、法語(FR)、意大利語(IT)、荷蘭語(NL)和葡萄牙語(PT)的多語言數(shù)據(jù)。

仔細選擇不同數(shù)據(jù)域的混合比例至關重要,尤其是非英語數(shù)據(jù)和代碼數(shù)據(jù)。

下圖展示了Stable LM 2預訓練數(shù)據(jù)集中各領域有效訓練詞塊的百分比。

分詞器

研究人員使用了Arcade100k,這是一個從OpenAI的tiktoken.cl100k_base擴展而來的BPE標記器,其中包括用于代碼和數(shù)字拆分處理的特殊token。

詞庫由100,289個token組成,在訓練過程中被填充為最接近的64的倍數(shù)(100,352),以滿足NVIDIA A100設備上推薦的Tensor Core對齊方式。

架構

該模型在設計上與LLaMA架構類似,下表顯示了一些關鍵的架構細節(jié)。

其中,與LLaMA的主要區(qū)別如下:

1. 位置嵌入

旋轉位置嵌入應用于頭嵌入尺寸的前25%,以提高后續(xù)吞吐量

2. 歸一化

相對于RMSNorm,LayerNorm具有學習偏置項

3. 偏置

從前饋網(wǎng)絡和多頭自注意層中刪除了鍵、查詢和值預測以外的所有偏置項。

模型微調

有監(jiān)督微調(SFT)

研究人員在Hugging Face Hub上公開的一些指令數(shù)據(jù)集上對預訓練模型進行微調。

尤其是使用了UltraChat、WizardLM、SlimOrca、ShareGPT、Capybara、Deita和MetaMathQA會話數(shù)據(jù)集,樣本總數(shù)為826,938個。

直接偏好優(yōu)化(DPO)

直接偏好優(yōu)化(Direct Preference Optimization,簡稱 DPO)是 Zephyr-7B、Neural-Chat-7B和Tulu-2-DPO-70B等近期強模型的基本工具。

在應用SFT后,通過DPO對得到的模型進行微調。

在這個階段,他們使用UltraFeedback和Intel Orca Pairs這兩個數(shù)據(jù)集,并通過刪除了排名并列的配對、內容重復的配對以及所選回應得分低于80%的配對來過濾數(shù)據(jù)集。

實驗結果和基準測試

少樣本和零樣本評估

研究人員通過流行基準評估了Stable LM 2的少樣本和零樣本能力,并將結果與類似大小的開源預訓練模型進行了比較。下表列出了模型評估結果。

可以看出,Stable LM 2 1.6B (stablelm-2-1-6b)的性能明顯優(yōu)于其他基礎模型。

同樣,經過指令微調的版本(stablelm-2-1-6b-dpo)比微軟的Phi-1.5平均提高了2%,但在幾發(fā)準確率上卻落后于更大的Phi-2.0。與谷歌的Gemma 2B(2.5B參數(shù))相比,性能也有顯著提高。

多語種評估

通過在 ChatGPT 翻譯版本的 ARC、HS、TQA 和 MMLU 上進行評估,來評估在多語言環(huán)境下的知識和推理能力。

此外,還使用了機器翻譯的LAMBADA數(shù)據(jù)集測試了下一個單詞的預測能力。

下表為zero-shot測試結果,可以看出與規(guī)模是其兩倍的模型相比,Stable LM 2的性能更加出眾。

MT基準評估

他們還在流行的多輪基準MT-Bench上測試了模型的對話能力。

圖片

Stable LM 2 1.6B顯示出具有競爭力的性能,與MT-Bench上的大型模型能力相當甚至更好。

雖然該模型落后于Mistral 7B Instruct v0.2(比Stable LM 2大4倍多)等更強大的模型,但該模型提供了更好的聊天性能,并以較大優(yōu)勢擊敗了Phi-2、Gemma 2B和TinyLLaMA 1.1B這兩個大模型。

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-06-02 13:55:57

開源AI

2024-01-10 17:10:53

數(shù)據(jù)訓練

2023-09-07 13:25:00

AI模型

2023-12-13 13:29:00

數(shù)據(jù)訓練

2023-09-18 09:36:58

微軟模型

2024-06-05 08:33:29

2024-07-02 09:20:59

2023-10-12 14:40:10

AI模型

2024-09-09 09:20:00

2024-03-28 12:53:00

AI數(shù)據(jù)

2024-03-15 08:30:00

AI數(shù)據(jù)

2023-05-19 10:26:01

谷歌模型

2022-01-20 15:56:14

AI訓練GPU

2023-09-15 13:18:53

數(shù)據(jù)訓練

2024-02-22 10:09:00

開源模型

2023-09-04 19:09:00

訓練模型數(shù)據(jù)

2024-12-09 07:10:00

Llama 3.3GeminiGPT-4.5

2023-10-11 13:21:12

模型數(shù)據(jù)

2024-06-12 13:58:00

2023-09-22 09:06:00

模型開源
點贊
收藏

51CTO技術棧公眾號