剛剛,智譜一口氣開源6款模型,200 tokens/秒解鎖商用速度之最 | 免費(fèi)
就在剛剛,智譜一口氣上線并開源了三大類最新的GLM模型:
- 沉思模型GLM-Z1-Rumination
- 推理模型GLM-Z1-Air
- 基座模型GLM-4-Air-0414
若是以模型大?。?B和32B)來劃分,更是可以細(xì)分為六款。
首先是兩個(gè)9B大小的模型:
- GLM-4-9B-0414:主攻對(duì)話,序列長度介于32K到128K之間
- GLM-Z1-9B-0414:主攻推理,序列長度介于32K到128K之間
還有四個(gè)32B大小的模型,它們分別是:
- GLM-4-32B-Base-0414:基座模型,序列長度介于32K到128K之間
- GLM-4-32B-0414:主攻對(duì)話,序列長度介于32K到128K之間
- GLM-Z1-32B-0414:主攻推理,序列長度介于32K到128K之間
- GLM-Z1-32B-Rumination-0414:主攻推理,序列長度為128K
而隨著一系列模型的開源,智譜也解鎖了一項(xiàng)行業(yè)之最——
推理模型GLM-Z1-32B-0414做到了性能與DeepSeek-R1等頂尖模型相媲美的同時(shí),實(shí)測推理速度可達(dá)200 tokens/秒。
如此速度,已然是目前國內(nèi)商業(yè)模型中速度最快,而且它的高性價(jià)比版本價(jià)格也僅為DeepSeek-R1的1/30。
值得一提的是,本次開源的所有模型均采用寬松的MIT許可協(xié)議。
這就意味著上述的所有模型都可以免費(fèi)用于商業(yè)用途、自由分發(fā),為開發(fā)者提供了極大的使用和開發(fā)自由度。
那么這些開源模型的效果又如何?
先看性能
首先來看下GLM-4-32B-0414。
它是一款擁有320億參數(shù)的基座大模型,其性能足以比肩國內(nèi)外規(guī)模更大的主流模型。
據(jù)了解,這個(gè)模型基于15T高質(zhì)量數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,其中特別融入了大量推理類合成數(shù)據(jù),為后續(xù)強(qiáng)化學(xué)習(xí)擴(kuò)展提供了堅(jiān)實(shí)基礎(chǔ)。
在后訓(xùn)練階段,智譜團(tuán)隊(duì)不僅完成了對(duì)話場景的人類偏好對(duì)齊,還運(yùn)用拒絕采樣和強(qiáng)化學(xué)習(xí)等先進(jìn)技術(shù),重點(diǎn)提升了模型在指令理解、工程代碼生成、函數(shù)調(diào)用等關(guān)鍵任務(wù)上的能力,從而顯著增強(qiáng)了智能體執(zhí)行任務(wù)的核心素質(zhì)。
實(shí)際測試表明,GLM-4-32B-0414在工程代碼編寫、Artifacts生成、函數(shù)調(diào)用、搜索問答及報(bào)告撰寫等多個(gè)應(yīng)用場景均展現(xiàn)出色表現(xiàn)。
部分基準(zhǔn)測試指標(biāo)已達(dá)到或超越 GPT-4o、DeepSeek-V3-0324(671B)等更大規(guī)模模型的水平。
從實(shí)測效果來看,GLM-4-32B-0414進(jìn)一步提升了代碼生成能力,可處理并生成結(jié)構(gòu)更復(fù)雜的單文件代碼。
例如來上這么一段Prompt:
用HTML模擬太陽系的行星運(yùn)動(dòng)。
再如:
設(shè)計(jì)一個(gè)支持自定義函數(shù)繪制的繪圖板,可以添加和刪除自定義函數(shù),并為函數(shù)指定顏色。
以及設(shè)計(jì)一個(gè)小游戲也是不在話下:
用HTML網(wǎng)頁實(shí)現(xiàn)2048小游戲。
圖片
再來看下GLM-Z1-32B-0414的性能,一款專為深度推理優(yōu)化的模型。
這個(gè)模型在GLM-4-32B-0414的基礎(chǔ)上,采用了冷啟動(dòng)結(jié)合擴(kuò)展強(qiáng)化學(xué)習(xí)的策略,并針對(duì)數(shù)學(xué)推導(dǎo)、代碼生成、邏輯推理等高難度任務(wù)進(jìn)行了專項(xiàng)優(yōu)化,顯著提升了復(fù)雜問題的解決能力。
此外,它還通過引入基于對(duì)戰(zhàn)排序反饋的通用強(qiáng)化學(xué)習(xí)(RLHF),模型的泛化能力得到進(jìn)一步強(qiáng)化。
盡管僅擁有32B參數(shù),GLM-Z1-32B-0414在部分任務(wù)上的表現(xiàn)已可媲美 671B 參數(shù)的DeepSeek-R1。
在AIME 24/25、LiveCodeBench、GPQA等權(quán)威基準(zhǔn)測試中,該模型展現(xiàn)出卓越的數(shù)理推理能力,能夠高效應(yīng)對(duì)更廣泛、更具挑戰(zhàn)性的復(fù)雜任務(wù)。
接下來,是更小規(guī)模的GLM-Z1-9B-0414,在技術(shù)上是沿用了上述模型的方法。
雖然只有9B大小,但它在數(shù)學(xué)推理及通用任務(wù)上展現(xiàn)出超越參數(shù)規(guī)模的卓越性能,綜合表現(xiàn)穩(wěn)居同量級(jí)開源模型前列。
尤其值得關(guān)注的是,在資源受限的應(yīng)用場景中,該模型能夠高效平衡計(jì)算效率與推理質(zhì)量,為輕量化AI部署提供了極具競爭力的解決方案。
最后,再來看下沉思模型GLM-Z1-Rumination-32B-0414。
這個(gè)模型可以說是智譜對(duì)AGI未來形態(tài)的一個(gè)探索。
沉思模型采用與傳統(tǒng)推理模型截然不同的工作范式,通過多步深度思考機(jī)制有效應(yīng)對(duì)高度開放性和復(fù)雜性問題。
其核心突破體現(xiàn)在三個(gè)方面:
- 在深度推理過程中智能調(diào)用搜索工具處理復(fù)雜子任務(wù);
- 創(chuàng)新性地引入多維度規(guī)則獎(jiǎng)勵(lì)體系,實(shí)現(xiàn)端到端強(qiáng)化學(xué)習(xí)的精準(zhǔn)引導(dǎo)與擴(kuò)展;
- 完整支持”問題發(fā)現(xiàn)→信息檢索→邏輯分析→任務(wù)解決”的研究閉環(huán)系統(tǒng)。
這些技術(shù)創(chuàng)新使該模型在學(xué)術(shù)寫作、深度研究等需要復(fù)雜認(rèn)知能力的任務(wù)上展現(xiàn)出顯著優(yōu)勢(shì)。
例如讓它回答一個(gè)科學(xué)假設(shè)推演問題:
如果人類在火星地下發(fā)現(xiàn)液態(tài)湖泊中存在類似地球古菌的微生物,請(qǐng)推測:(1) 這些微生物可能如何適應(yīng)極端環(huán)境?(2) 這一發(fā)現(xiàn)對(duì)‘生命起源泛種論’的支持/反駁證據(jù)有哪些?(3) 設(shè)計(jì)一個(gè)可驗(yàn)證這些假說的空間實(shí)驗(yàn)方案(預(yù)算限制5億美元)。
再看價(jià)格
除模型開源外,基座、推理兩類模型也已同步上線智譜MaaS開放平臺(tái)(bigmodel.cn),面向企業(yè)與開發(fā)者提供API服務(wù)。
本次上線的基座模型提供兩個(gè)版本:GLM-4-Air-250414和GLM-4-Flash-250414,其中GLM-4-Flash-250414完全免費(fèi)。
上線的推理模型分為三個(gè)版本,分別滿足不同場景需求:
- GLM-Z1-AirX(極速版):定位國內(nèi)最快推理模型,推理速度可達(dá) 200 tokens/秒,比常規(guī)快 8 倍;
- GLM-Z1-Air(高性價(jià)比版):價(jià)格僅為 DeepSeek-R1 的 1/30,適合高頻調(diào)用場景;
- GLM-Z1-Flash(免費(fèi)版):支持免費(fèi)使用,旨在進(jìn)一步降低模型使用門檻。
為了更加一目了然,價(jià)格表如下:
至于配置方面,32B基礎(chǔ)模型、32B推理模型、32B沉思模型(裸模型)的要求如下:
- 1張H100 / A100或者更先進(jìn)的NVIDIA旗艦顯卡
- 4張4090/5090/3090
One More Thing
除了上述內(nèi)容之外,智譜這次還有一個(gè)亮點(diǎn)的動(dòng)作——
拿下一個(gè)頂級(jí)域名Z.ai!
目前已經(jīng)上線了下面三款模型:
而且官方還亮出了一個(gè)比較有意思的slogan:
最后,縱觀智譜在大模型時(shí)代的發(fā)展,不得不感慨其更新迭代以及開源的速度。
這樣難怪它能成為第一家正式啟動(dòng)IPO流程的“大模型六小龍”。
體驗(yàn)地址:
z.ai