自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

清華大學(xué)與智譜AI重磅開源 GLM-4:掀起自然語言處理新革命

人工智能
在強(qiáng)大的預(yù)訓(xùn)練基礎(chǔ)上,GLM-4-9B 的中英文綜合性能相比 ChatGLM3-6B 提升了 40%。尤其是中文對齊能力 AlignBench、指令遵從能力 IFeval,以及工程代碼處理能力 Natural Code Bench 方面都實(shí)現(xiàn)了顯著提升。

自 2023 年 3 月 14 日開源 ChatGLM-6B 以來,GLM 系列模型受到了廣泛的關(guān)注和認(rèn)可。特別是在 ChatGLM3-6B 開源之后,開發(fā)者對智譜 AI 推出的第四代模型充滿了期待。而這一期待,隨著 GLM-4-9B 的發(fā)布,終于得到了滿足。

GLM-4-9B 的誕生

為了賦予小模型(10B 以下)更加強(qiáng)大的能力,GLM 技術(shù)團(tuán)隊(duì)經(jīng)過近半年的探索,推出了這一全新的第四代 GLM 系列開源模型:GLM-4-9B。

創(chuàng)新預(yù)訓(xùn)練技術(shù)

在預(yù)訓(xùn)練過程中,我們引入大語言模型進(jìn)行數(shù)據(jù)篩選,最終獲得了 10T 高質(zhì)量多語言數(shù)據(jù)。這一數(shù)據(jù)量是 ChatGLM3-6B 模型的 3 倍以上。此外,我們采用了 FP8 技術(shù)進(jìn)行高效的預(yù)訓(xùn)練,相較于第三代模型,訓(xùn)練效率提高了 3.5 倍。考慮到用戶的顯存需求,GLM-4-9B 的參數(shù)規(guī)模從 6B 提升到了 9B。最終,我們將預(yù)訓(xùn)練計(jì)算量增加了 5 倍,從而在有限的顯存條件下最大化性能。

卓越性能展示

綜合以上的技術(shù)升級,GLM-4-9B 具備了更強(qiáng)大的推理性能、更加優(yōu)異的上下文處理能力、多語言支持、多模態(tài)處理以及全工具 All Tools 調(diào)用等優(yōu)勢。

GLM-4-9B 系列包括多個版本:

  • 基礎(chǔ)版本:GLM-4-9B(8K)
  • 對話版本:GLM-4-9B-Chat(128K)
  • 超長上下文版本:GLM-4-9B-Chat-1M(1M)
  • 多模態(tài)版本:GLM-4V-9B-Chat(8K)

GLM-4-9B 的強(qiáng)大能力

基礎(chǔ)能力

在強(qiáng)大的預(yù)訓(xùn)練基礎(chǔ)上,GLM-4-9B 的中英文綜合性能相比 ChatGLM3-6B 提升了 40%。尤其是中文對齊能力 AlignBench、指令遵從能力 IFeval,以及工程代碼處理能力 Natural Code Bench 方面都實(shí)現(xiàn)了顯著提升。即使對比訓(xùn)練量更多的 Llama 3 8B 模型,GLM-4-9B 也絲毫不遜色,在英文表現(xiàn)上略有領(lǐng)先,而在中文學(xué)科領(lǐng)域,GLM-4-9B 更是提升了高達(dá) 50% [性能評測圖表]。

長文本處理能力

圖片圖片

GLM-4-9B 模型的上下文長度從 128K 擴(kuò)展到了 1M tokens,意味著能同時處理多達(dá) 200 萬字的輸入,相當(dāng)于兩本《紅樓夢》或 125 篇學(xué)術(shù)論文的長度。GLM-4-9B-Chat-1M 模型在“大海撈針”實(shí)驗(yàn)中,成功展示了其出色的無損處理長文本輸入的能力 [長文本實(shí)驗(yàn)圖示]。

以下是兩個展示長文本處理能力的 demo 視頻案例:

  1. GLM-4-9B-Chat 模型: 輸入 5 個 PDF 文件,總長度約為 128K,給出寫一篇關(guān)于中國大模型發(fā)展的詳細(xì)調(diào)研報(bào)告的 prompt。模型能夠快速生成高質(zhì)量的調(diào)研報(bào)告(視頻未加速)。
  2. GLM-4-9B-Chat-1M 模型: 輸入《三體》全集約 90 萬字,要求模型給該小說寫續(xù)集大綱的 prompt。模型合理規(guī)劃并給出續(xù)寫框架(視頻加速 10 倍)。

多語言支持

GLM-4-9B 支持多達(dá) 26 種語言,包括漢語、英語、俄語等。我們將 tokenizer 的詞表大小從 65K 擴(kuò)展到 150K,編碼效率提高了 30%。在多語言理解和生成任務(wù)中,GLM-4-9B-Chat 顯著超越 Llama-3-8B-Instruct [多語言性能比較圖]。

Function Call 能力

GLM-4-9B 的函數(shù)調(diào)用能力相較上一代提升了 40%,在 Berkeley Function-Calling Leaderboard 上,其 Function Call 能力與 GPT-4 不相上下 [函數(shù)調(diào)用性能對比圖表]。

All Tools 全工具調(diào)用

“All Tools”能力即模型可以理解和使用各種外部工具(如代碼執(zhí)行、聯(lián)網(wǎng)瀏覽、畫圖等)來輔助完成任務(wù)。在 1 月 16 日的 Zhipu DevDay 上,GLM-4 模型全線升級了 All Tools 能力,可以智能調(diào)用網(wǎng)頁瀏覽器、代碼解釋器、CogView 等工具,完成復(fù)雜請求 [All Tools 任務(wù)圖示]。

多模態(tài)處理

GLM-4V-9B 作為 GLM-4 基座的開源多模態(tài)模型,能夠處理高分辨率輸入,將視覺和文本數(shù)據(jù)直接混合進(jìn)行訓(xùn)練,展現(xiàn)了顯著的多模態(tài)處理效果,與 GPT-4V 性能相當(dāng)。在識別和處理復(fù)雜多模態(tài)任務(wù)時,表現(xiàn)非常出色 [多模態(tài)應(yīng)用實(shí)例圖]。

圖片圖片

未來展望

GLM-4-9B 展現(xiàn)了其在多種任務(wù)中的強(qiáng)大性能,是自然語言處理領(lǐng)域的一大突破。無論是學(xué)術(shù)研究還是工業(yè)應(yīng)用,GLM-4-9B 都將成為您的不二選擇。

我們誠摯邀請您加入 GLM-4 的使用者行列,共同探索這款卓越模型帶來的可能性:

  • GitHub 倉庫
  • Hugging Face 模型頁面
  • 魔搭社區(qū)
責(zé)任編輯:武曉燕 來源: 路條編程
相關(guān)推薦

2023-08-03 09:56:47

自然語言AI

2020-02-25 12:00:53

自然語言開源工具

2020-02-25 23:28:50

工具代碼開發(fā)

2023-05-30 14:39:34

ChatGPT-4NLP

2023-09-19 09:20:16

2021-05-13 07:17:13

Snownlp自然語言處理庫

2021-09-29 10:10:56

人工智能技術(shù)清華

2013-03-12 16:26:34

2019-03-25 22:03:40

開源自然語言NLP

2020-04-16 10:32:38

自然語言人工智能AI

2022-11-11 15:16:36

機(jī)器學(xué)習(xí)開源

2024-06-05 17:38:32

2021-05-17 09:00:00

自然語言人工智能技術(shù)

2020-04-24 10:53:08

自然語言處理NLP是人工智能

2024-02-05 14:18:07

自然語言處理

2010-03-09 16:11:10

虛擬化vmware

2017-10-19 17:05:58

深度學(xué)習(xí)自然語言

2023-08-01 13:09:42

代碼開發(fā)

2021-05-18 07:15:37

Python
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號