自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Kimi開源底層推理框架,1小時(shí)GitHub攬星1.2k

人工智能
逐步開源高性能KVCache多級(jí)緩存Mooncake Store的實(shí)現(xiàn),同時(shí)針對(duì)各類推理引擎和底層存儲(chǔ)/傳輸資源進(jìn)行兼容。其中傳輸引擎Transfer Engine現(xiàn)在已經(jīng)在GitHub全球開源。

什么?Kimi底層推理架構(gòu)剛剛宣布:開!源!了!

你沒聽錯(cuò),就是那個(gè)承載了Kimi線上80%以上流量的架構(gòu)。

大約幾小時(shí)前,月之暗面Kimi聯(lián)合清華大學(xué)等機(jī)構(gòu),開源了大模型推理架構(gòu)Mooncake。

圖片

根據(jù)官方介紹,本次開源將采用分階段的方式:

逐步開源高性能KVCache多級(jí)緩存Mooncake Store的實(shí)現(xiàn),同時(shí)針對(duì)各類推理引擎和底層存儲(chǔ)/傳輸資源進(jìn)行兼容。

其中傳輸引擎Transfer Engine現(xiàn)在已經(jīng)在GitHub全球開源。

可以看到,Mooncake一經(jīng)開源,已在GitHub狂攬1.2k star。

圖片

其最終開源目標(biāo)是,為大模型時(shí)代打造一種新型高性能內(nèi)存語(yǔ)義存儲(chǔ)的標(biāo)準(zhǔn)接口,并提供參考實(shí)現(xiàn)方案。

月之暗面Kimi工程副總裁許欣然表示:

通過(guò)與清華大學(xué)MADSys實(shí)驗(yàn)室緊密合作,我們共同打造了分離式大模型推理架構(gòu)Mooncake,實(shí)現(xiàn)推理資源的極致優(yōu)化。

Mooncake不僅提升了Kimi的用戶體驗(yàn),降低了成本,還為處理長(zhǎng)文本和高并發(fā)需求提供了有效的解決方案。

我們相信,通過(guò)與產(chǎn)學(xué)研機(jī)構(gòu)開源合作,可以推動(dòng)整個(gè)行業(yè)向更高效的推理平臺(tái)方向發(fā)展。

圖片

實(shí)際上,這個(gè)項(xiàng)目早在今年6月就已啟動(dòng),當(dāng)時(shí)已受到業(yè)內(nèi)廣泛關(guān)注——

圖片

大模型推理架構(gòu)Mooncake

今年6月,月之暗面和清華大學(xué)MADSys實(shí)驗(yàn)室聯(lián)合發(fā)布了Kimi底層的Mooncake推理系統(tǒng)設(shè)計(jì)方案。

在這篇名為《Mooncake: A KVCache-centric Disaggregated Architecture for LLM Serving》的論文中,作者詳細(xì)介紹了Mooncake這種系統(tǒng)架構(gòu)。

該系統(tǒng)基于以KVCache為中心的PD分離和以存換算架構(gòu),大幅度提升了推理吞吐。

圖片

具體而言,Mooncake采用以KVCache為中心的解耦架構(gòu),將預(yù)填充集群與解碼集群分離,并充分利用GPU集群中未充分利用的CPU、DRAM和SSD資源,實(shí)現(xiàn)KVCache的解耦緩存。

其核心在于以KVCache為中心的調(diào)度程序:

在最大化整體有效吞吐量和滿足與延遲相關(guān)的服務(wù)級(jí)別目標(biāo) (SLO) 要求之間取得平衡

當(dāng)面對(duì)流量高峰期時(shí),Mooncake通過(guò)早期拒絕策略和預(yù)測(cè)未來(lái)負(fù)載的方法,來(lái)處理超載問(wèn)題。

  • 早期拒絕策略(Early Rejection Policy)

簡(jiǎn)單說(shuō),其核心思想是在請(qǐng)求實(shí)際開始處理之前,根據(jù)當(dāng)前系統(tǒng)的負(fù)載情況預(yù)測(cè)是否有足夠的資源來(lái)處理新的請(qǐng)求。

如果預(yù)測(cè)結(jié)果表明系統(tǒng)資源不足以保證請(qǐng)求的及時(shí)處理,系統(tǒng)就會(huì)在請(qǐng)求到達(dá)之前予以拒絕,從而避免了無(wú)效的資源占用和不必要的延遲。

  • 預(yù)測(cè)未來(lái)負(fù)載(Predicting Future Load)

在Mooncake中,系統(tǒng)需要能夠預(yù)測(cè)在未來(lái)一段時(shí)間內(nèi)的負(fù)載情況,以便做出更準(zhǔn)確的接受或拒絕請(qǐng)求的決策。

如何實(shí)現(xiàn)呢??

通常來(lái)說(shuō),這種預(yù)測(cè)會(huì)基于當(dāng)前的請(qǐng)求模式、系統(tǒng)的資源使用情況以及歷史數(shù)據(jù)等信息。

再通過(guò)對(duì)信息的進(jìn)一步分析建模,Mooncake就能夠估計(jì)接下來(lái)的請(qǐng)求處理需求,并據(jù)此調(diào)整其調(diào)度策略。

論文實(shí)驗(yàn)結(jié)果顯示,與基線方法相比,Mooncake在某些模擬場(chǎng)景中可以實(shí)現(xiàn)高達(dá)525%的吞吐量提升,同時(shí)遵守SLO(與延遲相關(guān)的服務(wù)級(jí)別目標(biāo))。

在實(shí)際工作負(fù)載下,Mooncake使Kimi能夠處理75%以上的請(qǐng)求。

而且據(jù)許欣然在其他場(chǎng)合透露:

目前這套系統(tǒng)承載了Kimi線上80%以上的流量。

圖片

而現(xiàn)在,為了進(jìn)一步加速該技術(shù)框架的應(yīng)用與推廣,Kimi聯(lián)合清華大學(xué)等機(jī)構(gòu)共同發(fā)布開源項(xiàng)目Mooncake。

參與開源的首批陣容包括:

AISoft、阿里云、華為存儲(chǔ)、面壁智能、趨境科技等。

可以說(shuō),云計(jì)算、存儲(chǔ)、AI模型玩家等產(chǎn)學(xué)研力量都聚齊了。

據(jù)悉,Mooncake開源項(xiàng)目從論文延伸,以超大規(guī)模KVCache緩存池為中心,通過(guò)以存換算的創(chuàng)新理念大幅度減少算力開銷,顯著提升了推理吞吐量。

目前Mooncake技術(shù)框架已正式開源上線,官方還表示:

歡迎更多企業(yè)和研究機(jī)構(gòu)加入Mooncake項(xiàng)目共建,共同探索更加高效和先進(jìn)的模型推理系統(tǒng)架構(gòu)創(chuàng)新,讓基于大模型技術(shù)的AI助手等產(chǎn)品,持續(xù)惠及更廣泛人群。

論文:https://arxiv.org/pdf/2407.00079。
開源地址:https://github.com/kvcache-ai/Mooncake。

參考鏈接:https://mp.weixin.qq.com/s/-8ZRbRxBOWNfkk3xMdcWVQ。

責(zé)任編輯:姜華 來(lái)源: 量子位
相關(guān)推薦

2020-06-19 15:05:43

GitHub 開發(fā)面試

2020-02-27 09:46:19

GitHub代碼開發(fā)者

2024-11-26 14:20:00

開發(fā)模型工具

2024-11-18 10:25:00

AI模型

2023-10-04 19:52:33

模型論文

2020-12-07 16:14:40

GitHub 技術(shù)開源

2025-04-17 09:58:32

2024-11-29 13:54:13

Kimi架構(gòu)大模型

2021-04-09 16:25:00

GitHub代碼開發(fā)者

2020-12-30 10:35:49

程序員技能開發(fā)者

2024-03-18 10:17:00

開源AI

2019-10-16 15:40:27

開源技術(shù) 軟件

2021-12-20 09:46:26

代碼開發(fā)GitHub

2025-04-11 09:10:00

模型開源AI

2020-11-26 15:48:37

代碼開發(fā)GitHub

2020-12-10 10:24:25

AI 數(shù)據(jù)人工智能

2024-07-23 09:17:34

開發(fā)者框架

2022-03-14 09:59:39

機(jī)器人華為代碼

2023-03-13 12:32:45

ChatGPT開源

2024-09-18 13:01:10

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)