自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

剛剛,DeepSeek開源FlashMLA,推理加速核心技術(shù),Star量飛漲中

人工智能 新聞
北京時間周一上午 9 點(diǎn),剛一上班(同時是硅谷即將下班的時候),DeepSeek 兌現(xiàn)了自己的諾言,開源了一款用于 Hopper GPU 的高效型 MLA 解碼核:FlashMLA。

上周五,DeepSeek 發(fā)推說本周將是開源周(OpenSourceWeek),并將連續(xù)開源五個軟件庫。

第一個項目,果然與推理加速有關(guān)。

北京時間周一上午 9 點(diǎn),剛一上班(同時是硅谷即將下班的時候),DeepSeek 兌現(xiàn)了自己的諾言,開源了一款用于 Hopper GPU 的高效型 MLA 解碼核:FlashMLA。

該項目上線才 45 分鐘就已經(jīng)收獲了超過 400 star!并且在我們截圖時,Star 數(shù)量正在瘋狂飆升。

image.png

項目地址:https://github.com/deepseek-ai/FlashMLA

眾所周知,MLA是DeepSeek大模型的重要技術(shù)創(chuàng)新點(diǎn),主要就是減少推理過程的KV Cache,從而實(shí)現(xiàn)在更少的設(shè)備上推理更長的Context,極大地降低推理成本。

此次 DeepSeek 直接開源了該核心技術(shù)的改進(jìn)版本,可以說是誠意滿滿。

接下來,就讓我看下這個開源項目的核心內(nèi)容。

據(jù)介紹,F(xiàn)lashMLA 是適用于 Hopper GPU 的高效 MLA 解碼內(nèi)核,針對可變長度序列服務(wù)進(jìn)行了優(yōu)化。

目前已發(fā)布的內(nèi)容有:

  •  BF16
  •  塊大小為 64 的分頁 kvcache

其速度非??欤?H800 SXM5 GPU 上具有 3000 GB/s 的內(nèi)存速度上限以及 580 TFLOPS 的計算上限。

在部署這個項目之前,你需要的有:

  •  Hopper GPU
  •  CUDA 12.3 及以上版本
  •  PyTorch 2.0 及以上版本

快速啟動

  • 安裝
python setup.py install
  • 基準(zhǔn)
python tests/test_flash_mla.py

使用 CUDA 12.6,在 H800 SXM5 上,在內(nèi)存綁定配置下實(shí)現(xiàn)高達(dá) 3000 GB/s,在計算綁定配置下實(shí)現(xiàn) 580 TFLOPS。

  • 用法
from flash_mla import get_mla_metadata, flash_mla_with_kvcache

tile_scheduler_metadata, num_splits = get_mla_metadata (cache_seqlens, s_q * h_q //h_kv, h_kv)

for i in range (num_layers):
...
o_i, lse_i = flash_mla_with_kvcache (
q_i, kvcache_i, block_table, cache_seqlens, dv,
tile_scheduler_metadata, num_splits, causal=True,
)
...

該項目發(fā)布后也是好評如潮。

image.png

甚至有網(wǎng)友打趣地表示:「聽說第五天會是 AGI」。

image.png

最后,還是那句話:這才是真正的 OpenAI

image.png

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2025-02-24 10:07:04

2025-02-25 14:07:25

2025-02-26 00:02:59

2025-02-25 12:08:26

2011-03-29 10:00:49

開源技術(shù)雅虎

2025-02-21 09:30:00

DeepSeekAI

2025-02-18 15:13:13

2025-03-26 09:00:00

AIDeepSeek軟件架構(gòu)

2025-03-31 08:15:00

LLM大型語言模型人工智能

2022-05-07 14:31:46

物聯(lián)網(wǎng)

2025-03-07 09:57:01

2011-12-20 13:46:16

Facebook開源服務(wù)器數(shù)據(jù)中心

2025-04-07 07:30:00

模型AI訓(xùn)練

2010-06-29 09:06:39

Java思想Java虛擬機(jī)

2011-05-18 09:32:14

java

2025-04-30 09:19:32

2017-03-08 10:06:11

Java技術(shù)點(diǎn)注解

2009-06-26 16:01:39

EJB組織開發(fā)EJB容器EJB

2023-06-14 08:49:22

PodKubernetes
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號