自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

重磅開源!Kimi把自家底層推理架構(gòu)都開源了,開源貢獻陣容相當(dāng)豪華:清華、阿里、華為、AISoft、面壁智能

原創(chuàng)
人工智能
“在大模型時代,更多的數(shù)據(jù)、更大的模型、更長的上下文窗口帶來更高的智能,但也對大模型推理系統(tǒng)的效率提出更高挑戰(zhàn)。如何應(yīng)對高推理負載、降低推理成本、降低響應(yīng)延遲成為業(yè)界共同面臨的難題?!?/div>

就在昨天,Kimi宣布要把自家底層的大模型推理架構(gòu)Mooncake開源出來!

有媒體稱該架構(gòu)正是承載了月之暗面Kimi線上80%以上流量的正在用的底層架構(gòu)。

小編立馬求證了一番,的確Github上有提到:Mooncake 正在服務(wù)Kimi平臺。而且上線還不到一天就已經(jīng)斬獲了1600+ stars。

圖片圖片

開源地址:https://github.com/kvcache-ai/Mooncake

1.開源最終目標(biāo):高性能語義存儲的標(biāo)準(zhǔn)接口

“在大模型時代,更多的數(shù)據(jù)、更大的模型、更長的上下文窗口帶來更高的智能,但也對大模型推理系統(tǒng)的效率提出更高挑戰(zhàn)。如何應(yīng)對高推理負載、降低推理成本、降低響應(yīng)延遲成為業(yè)界共同面臨的難題?!?/p>

大家都知道,月之暗面在長文本、深度推理、高并發(fā)等方面一直有著不錯的研究和發(fā)布,這一次Kimi選擇在感恩節(jié)將這個牛逼的技術(shù)開源出來,確實讓大家感到意外和興奮。

據(jù)月之暗面官方公眾號介紹,此次是月之暗面聯(lián)合清華大學(xué)等機構(gòu)開源共建大模型推理架構(gòu)Mooncake。

官方文檔還透露了,本次開源將采用分階段的方式:

逐步開源高性能KVCache多級緩存Mooncake Store的實現(xiàn),同時針對各類推理引擎和底層存儲/傳輸資源進行兼容。

其中傳輸引擎Transfer Engine現(xiàn)在已經(jīng)在GitHub全球開源。

其最終開源目標(biāo)是,為大模型時代打造一種新型高性能內(nèi)存語義存儲的標(biāo)準(zhǔn)接口,并提供參考實現(xiàn)方案。

月之暗面Kimi工程副總裁許欣然表示:

通過與清華大學(xué)MADSys實驗室緊密合作,我們共同打造了分離式大模型推理架構(gòu)Mooncake,實現(xiàn)推理資源的極致優(yōu)化。

Mooncake不僅提升了Kimi的用戶體驗,降低了成本,還為處理長文本和高并發(fā)需求提供了有效的解決方案。

我們相信,通過與產(chǎn)學(xué)研機構(gòu)開源合作,可以推動整個行業(yè)向更高效的推理平臺方向發(fā)展。

圖片圖片

實際上,這個項目早在今年6月就已啟動,當(dāng)時已受到業(yè)內(nèi)廣泛關(guān)注——

圖片圖片

2.大模型推理架構(gòu)Mooncake核心思路

今年6月24日,月之暗面和清華大學(xué)MADSys實驗室聯(lián)合發(fā)布了Kimi底層的Mooncake推理系統(tǒng)設(shè)計方案。

在這篇名為《Mooncake: A KVCache-centric Disaggregated Architecture for LLM Serving》的論文中,作者詳細介紹了Mooncake這種系統(tǒng)架構(gòu)。

該系統(tǒng)基于以KVCache為中心的PD分離和以存換算架構(gòu),大幅度提升了推理吞吐。

圖片圖片

論文地址:https://arxiv.org/pdf/2407.00079

具體而言,Mooncake采用以KVCache為中心的解耦架構(gòu),將預(yù)填充集群與解碼集群分離,并充分利用GPU集群中未充分利用的CPU、DRAM和SSD資源,實現(xiàn)KVCache的解耦緩存。

其核心思路在于以KVCache為中心的調(diào)度程序:

在最大化整體有效吞吐量和滿足與延遲相關(guān)的服務(wù)級別目標(biāo) (SLO) 要求之間取得平衡

當(dāng)面對流量高峰期時,Mooncake通過早期拒絕策略和預(yù)測未來負載的方法,來處理超載問題。

  • 早期拒絕策略

簡單說,其核心思想是在請求實際開始處理之前,根據(jù)當(dāng)前系統(tǒng)的負載情況預(yù)測是否有足夠的資源來處理新的請求。

如果預(yù)測結(jié)果表明系統(tǒng)資源不足以保證請求的及時處理,系統(tǒng)就會在請求到達之前予以拒絕,從而避免了無效的資源占用和不必要的延遲。

  • 預(yù)測未來負載

在Mooncake中,系統(tǒng)需要能夠預(yù)測在未來一段時間內(nèi)的負載情況,以便做出更準(zhǔn)確的接受或拒絕請求的決策。

3.如何實現(xiàn)?

通常來說,這種預(yù)測會基于當(dāng)前的請求模式、系統(tǒng)的資源使用情況以及歷史數(shù)據(jù)等信息。

再通過對信息的進一步分析建模,Mooncake就能夠估計接下來的請求處理需求,并據(jù)此調(diào)整其調(diào)度策略。

論文實驗結(jié)果顯示,與基線方法相比,Mooncake在某些模擬場景中可以實現(xiàn)高達525%的吞吐量提升,同時遵守SLO(與延遲相關(guān)的服務(wù)級別目標(biāo))。

在實際工作負載下,Mooncake使Kimi能夠處理75%以上的請求。

圖片圖片

而且據(jù)許欣然在其他場合透露:目前這套系統(tǒng)承載了Kimi線上80%以上的流量。

圖片圖片

4.開源陣容相當(dāng)豪華?。?!

而現(xiàn)在,為了進一步加速該技術(shù)框架的應(yīng)用與推廣,Kimi聯(lián)合清華大學(xué)等機構(gòu)共同發(fā)布開源項目Mooncake。

參與開源的首批陣容包括:

AISoft、阿里云、華為存儲、面壁智能、趨境科技等。

可以說,云計算、存儲、AI模型玩家等產(chǎn)學(xué)研力量都聚齊了。

據(jù)悉,Mooncake開源項目從論文延伸,以超大規(guī)模KVCache緩存池為中心,通過以存換算的創(chuàng)新理念大幅度減少算力開銷,顯著提升了推理吞吐量。

目前Mooncake技術(shù)框架已正式開源上線,官方還表示:

歡迎更多企業(yè)和研究機構(gòu)加入Mooncake項目共建,共同探索更加高效和先進的模型推理系統(tǒng)架構(gòu)創(chuàng)新,讓基于大模型技術(shù)的AI助手等產(chǎn)品,持續(xù)惠及更廣泛人群。

開源實在是一個大殺器,推理架構(gòu)層面的開源,意味著Kimi正在重新定義自己在模型側(cè)的運作模式甚至商業(yè)計劃。希望看到國內(nèi)LLM推理方面的開源能夠進一步助力大模型應(yīng)用的真正爆發(fā)!

參考鏈接:

https://mp.weixin.qq.com/s/NsKDtC7qp2JxA_EunwSqvg

https://mp.weixin.qq.com/s/-0YxV77HnEEtrvxJSSujmQ

想了解更多AIGC的內(nèi)容,請訪問:

51CTO AI.x社區(qū)

http://www.scjtxx.cn/aigc/

責(zé)任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2020-07-24 11:17:51

開源技術(shù) 趨勢

2018-06-11 19:17:06

阿里云文檔開源

2024-11-29 07:00:00

Kimi大模型Mooncake

2021-07-30 13:18:35

微軟Linux代碼

2023-08-08 14:36:11

模型AI

2023-10-17 12:33:27

AI模型

2025-02-24 10:07:04

2025-03-07 09:57:01

2018-07-03 08:33:43

程序員阿里開源

2019-05-07 14:42:03

深度學(xué)習(xí)編程人工智能

2011-11-03 17:02:00

微軟Samba代碼

2019-06-18 10:24:23

開源技術(shù) 趨勢

2021-05-19 17:04:29

Python阿里自動化工具

2019-01-11 18:22:07

阿里巴巴技術(shù)開源

2022-04-27 08:22:41

非代碼形式開源開發(fā)者

2012-07-20 10:38:25

Entity FramEF

2019-08-29 10:46:42

2025-04-11 09:10:00

模型開源AI

2020-03-23 13:40:48

GitHub代碼開發(fā)者

2024-07-05 09:18:45

點贊
收藏

51CTO技術(shù)棧公眾號