豆包大模型公布價(jià)格清單,支持國(guó)內(nèi)最高并發(fā)標(biāo)準(zhǔn)
近期,火山引擎官網(wǎng)更新了豆包大模型的定價(jià)詳情,全面展示豆包通用模型不同版本、不同規(guī)格的價(jià)格信息。在模型推理定價(jià)大幅低于行業(yè)價(jià)格的基礎(chǔ)上,豆包通用模型的 TPM(每分鐘Tokens)、RPM(每分鐘請(qǐng)求數(shù))均達(dá)到國(guó)內(nèi)最高標(biāo)準(zhǔn)。以豆包主力模型 pro-32k 為例,價(jià)格比行業(yè)低99%,TPM限額則高達(dá)同規(guī)格模型的2.7倍到8倍。
圖:豆包系列模型“后付費(fèi)”定價(jià)信息
官方信息顯示:在按照 Tokens 實(shí)際使用量計(jì)算費(fèi)用的“后付費(fèi)”模式下,豆包通用模型-pro、豆包通用模型-lite的 32k 及以下窗口版本,模型限流為 10K RPM 和 800K TPM(以 RPM 和 TPM 其中之一到達(dá)上限為準(zhǔn))。國(guó)內(nèi)其他主流模型的 TPM 限額大多在 100K 到 300K 之間,RPM則是在60到120區(qū)間,輕量級(jí)模型的RPM限額相對(duì)較高,但僅僅在300到500之間。
按照 10K RPM 限額計(jì)算,企業(yè)客戶平均每秒可以同時(shí)調(diào)用167次豆包通用模型,從而滿足絕大多數(shù)業(yè)務(wù)場(chǎng)景在生產(chǎn)系統(tǒng)的大模型應(yīng)用需求。這一標(biāo)準(zhǔn),已經(jīng)達(dá)到 OpenAI 為高級(jí)別客戶( Tier4 及 Tier5 等級(jí)客戶)提供的 RPM 上限。
在算力挑戰(zhàn)更大的長(zhǎng)文本模型上,豆包通用模型 pro 和 lite 的 128k 版本,模型限流為 1K RPM 和 400K TPM,同樣大幅高于國(guó)內(nèi)其他的128k長(zhǎng)文本模型。
此外,豆包大模型公布了最新的“預(yù)付費(fèi)”模型單元價(jià)格?!邦A(yù)付費(fèi)”是以調(diào)用某個(gè)特定模型的 TPM 配額,企業(yè)購(gòu)買后無(wú)需再為 Tokens 消耗付費(fèi),提前為可以預(yù)見的流量波動(dòng)規(guī)劃好算力 。
圖:豆包系列模型“預(yù)付費(fèi)”模型單元價(jià)目表
以豆包通用模型 pro-32k為例: 按照 “預(yù)付費(fèi)”模型單元價(jià)格計(jì)算,10K TPM 的包月價(jià)格為2000元。10K*60*24*30=43200K。即 432000K Tokens的價(jià)格為2000元,平均價(jià)格為 0.0046元/千Tokens。 按照“后付費(fèi)”模式計(jì)算:在模型推理的計(jì)算成本中,推理輸入通常占絕大部分比例,業(yè)界一般認(rèn)為推理輸入是輸出的5倍。根據(jù)豆包通用模型 pro-32k 推理輸入 0.0008元/千Tokens、推理輸出 0.002元/千Tokens 計(jì)算,模型推理的綜合價(jià)格為 0.001元/千Tokens。 |
火山引擎方面表示,豆包大模型為客戶提供了靈活、經(jīng)濟(jì)的付費(fèi)模式,“后付費(fèi)”即可滿足絕大多數(shù)企業(yè)客戶的業(yè)務(wù)需求,助力企業(yè)以極低成本使用大模型、加速大模型的應(yīng)用落地。
“豆包模型的超低定價(jià),來源于我們有信心用技術(shù)手段優(yōu)化成本,而不是補(bǔ)貼或是打價(jià)格戰(zhàn)爭(zhēng)奪市場(chǎng)份額。”火山引擎總裁譚待認(rèn)為,“羊毛出在豬身上”在企業(yè)市場(chǎng)行不通,技術(shù)驅(qū)動(dòng)的極致性價(jià)比才能真正創(chuàng)造價(jià)值?;鹕揭媾c字節(jié)跳動(dòng)豆包大模型團(tuán)隊(duì)正在密切合作,將持續(xù)優(yōu)化模型效果和推理成本,為企業(yè)和開發(fā)者提供更好模型、更低成本和更易落地的平臺(tái)支持。
附:火山引擎官網(wǎng)的模型服務(wù)價(jià)格文檔https://www.volcengine.com/docs/82379/1099320