DPU碰撞ChatGPT,算力效率會(huì)擦出哪些火花?
?DPU 發(fā)展有望進(jìn)入快車道。DPU(數(shù)據(jù)處理芯片 Data Process Unit)被認(rèn)為是繼 CPU 和 GPU 之后的“第三顆主力芯片”。得益于智能網(wǎng)卡方案的逐步成熟,疊加全球通用服務(wù)器出貨量的穩(wěn)定增長(zhǎng)、L3 以上級(jí)別智能駕駛汽車的技術(shù)落地、工業(yè)控制領(lǐng)域的需求增加等原因,全球、國(guó)內(nèi) DPU 產(chǎn)業(yè)都有望實(shí)現(xiàn)快速發(fā)展。
全球 DPU 市場(chǎng)高景氣延續(xù),國(guó)內(nèi) DPU 市場(chǎng)加速追趕。據(jù)賽迪顧問(wèn)《??中國(guó)DPU行業(yè)發(fā)展白皮書??》,2020 年全球 DPU 產(chǎn)業(yè)市場(chǎng)規(guī)模達(dá) 30.5 億美元,預(yù)計(jì)到 2025 年全球 DPU 產(chǎn)業(yè)市場(chǎng)規(guī)模將超過(guò) 245.3 億美元,復(fù)合增速達(dá) 51.73%。
2020 年中國(guó) DPU 產(chǎn)業(yè)市場(chǎng)規(guī)模達(dá) 3.9 億元,預(yù)計(jì)到 2025 年中國(guó) DPU 產(chǎn)業(yè)市場(chǎng)規(guī)模將超過(guò) 565.9 億元,復(fù)合增速達(dá) 170.6%。
DPU 產(chǎn)業(yè)鏈分析:
DPU 中游環(huán)節(jié)(DPU 芯片廠商):海外巨頭暫時(shí)領(lǐng)先,國(guó)產(chǎn)廠商蓄勢(shì)待發(fā)。根據(jù)頭豹研究院數(shù)據(jù),2020 年國(guó)內(nèi) DPU 市場(chǎng)中,國(guó)際三大巨頭英偉達(dá),博通,Intel 份額分別達(dá)到 55%、36%、9%。國(guó)內(nèi)廠商中,華為,阿里,百度,騰訊也在近幾年針對(duì)自身服務(wù)器進(jìn)行自研與外購(gòu) DPU,針對(duì)的主要功能在于數(shù)據(jù),存儲(chǔ)與安全方面。
DPU 上游環(huán)節(jié):EDA、IP 等均為研發(fā)重要基礎(chǔ)。國(guó)內(nèi) EDA 市場(chǎng)長(zhǎng)期由國(guó)際三大巨頭占據(jù),未來(lái)有望迎來(lái)突破。供需合力孕育 IP 核產(chǎn)業(yè),未來(lái)需求打開(kāi)新增通道。半導(dǎo)體國(guó)產(chǎn)化持續(xù)演進(jìn),國(guó)內(nèi) IP 供應(yīng)商將占據(jù)稀缺性價(jià)值高地,包括寒武紀(jì)、芯原股份等。
DPU 下游應(yīng)用:多點(diǎn)開(kāi)花,未來(lái)前景廣闊。DPU 核心市場(chǎng)圍繞數(shù)據(jù)中心展開(kāi),以服務(wù)器為硬件載體,下游場(chǎng)景覆蓋云計(jì)算,高性能計(jì)算,網(wǎng)絡(luò)安全,邊緣計(jì)算等多個(gè)領(lǐng)域。從我國(guó)范圍看,高新技術(shù)、數(shù)字化轉(zhuǎn)型及終端消費(fèi)等多樣化算力需求場(chǎng)景不斷涌現(xiàn),算力賦能效應(yīng)凸顯。
ChatGPT 等 AI 技術(shù)發(fā)展大趨勢(shì)下,算力需求凸顯,DPU 有望迎來(lái)黃金發(fā)展期,全球、國(guó)內(nèi) DPU 產(chǎn)業(yè)市場(chǎng)規(guī)模呈現(xiàn)逐年增長(zhǎng)的趨勢(shì),核心企業(yè)有望受益于行業(yè)發(fā)展趨勢(shì)。
DPU 有望成為“第三顆主力芯片”
DPU(數(shù)據(jù)處理芯片 Data Process Unit)被認(rèn)為是繼 CPU 和 GPU 之后的“第三顆主力芯片”。DPU(Data Processing Unit)是新近發(fā)展起來(lái)的一種專用處理器。2020 年 NVIDIA 公司發(fā)布的 DPU 產(chǎn)品戰(zhàn)略中將其定位為數(shù)據(jù)中心繼CPU 和 GPU 之后的“第三顆主力芯片”。隨著芯片業(yè)制造工藝的不斷精進(jìn),以及數(shù)字化技術(shù)如 AI 的發(fā)展,芯片行業(yè)不斷推陳出新。DPU 作為新型芯片的一種,它的出現(xiàn)是異構(gòu)計(jì)算的一個(gè)階段性標(biāo)志。
1、算力提升與數(shù)據(jù)增幅呈現(xiàn)剪刀差,DPU 需求凸顯
DPU 是以數(shù)據(jù)處理為核心的專用數(shù)據(jù)處理單元,是對(duì)傳統(tǒng)計(jì)算資源的網(wǎng)絡(luò)、安全和存儲(chǔ)的卸載平臺(tái)。傳統(tǒng)數(shù)據(jù)中心以 CPU 為主要數(shù)據(jù)處理單元,通常龐大的基礎(chǔ)架構(gòu)的運(yùn)行已占據(jù)相當(dāng)一部分 CPU 核,給數(shù)據(jù)處理任務(wù)帶來(lái)非常大的挑戰(zhàn)。
DPU 其實(shí)在行業(yè)內(nèi)已經(jīng)孕育已久,從早期的網(wǎng)絡(luò)協(xié)議處理卸載,到后續(xù)的網(wǎng)絡(luò)、存儲(chǔ)、虛擬化卸載。
根據(jù)摩天輪數(shù)據(jù),Amazon 的 AWS 早在 2013 年研發(fā)了 Nitro 產(chǎn)品,將數(shù)據(jù)中心開(kāi)銷(為虛機(jī)提供遠(yuǎn)程資源、加密解密、故障跟蹤、安全策略等服務(wù)程序)全部放到專用加速器上執(zhí)行。Nitro 架構(gòu)采用輕量化 Hypervisor 配合定制化的硬件,將虛擬機(jī)的計(jì)算(主要是 CPU 和內(nèi)存)和 I/O(主要是網(wǎng)絡(luò)和存儲(chǔ))子系統(tǒng)分離開(kāi)來(lái),通過(guò) PCIe 總線連接,節(jié)省了 30%的 CPU 資源。
2016-2017 年,阿里云就提出 X-Dragon 系統(tǒng)架構(gòu),其核心是 MOC 卡,且有比較豐富的對(duì)外接口,也包括了計(jì)算資源、存儲(chǔ)資源和網(wǎng)絡(luò)資源。MOC 卡的核心 X-Dragon SOC,統(tǒng)一支持網(wǎng)絡(luò),I/O、存儲(chǔ)和外設(shè)的虛擬化,為虛擬機(jī)、裸金屬、容器云提供統(tǒng)一的資源池。
根據(jù)網(wǎng)易、芯東西數(shù)據(jù),2019 年,美國(guó)一家初創(chuàng)公司 Fungible 推出產(chǎn)品 F1DPU,第一次提出了 DPU 的概念。2020 年 10 月,英偉達(dá)將基于 Mellanox 方案的 Smart NIC 命名為 DPU,重新定義了 DPU 的概念。2020 年,英偉達(dá)公司發(fā)布的 DPU 產(chǎn)品戰(zhàn)略中將其定位為繼 CPU 和 GPU 之后數(shù)據(jù)中心的“第三顆主力芯片”,掀起了行業(yè)熱潮。
2、以降本增效為目標(biāo),DPU 直擊行業(yè)痛點(diǎn)
DPU 要解決的核心問(wèn)題是基礎(chǔ)設(shè)施的“降本增效”,即將“CPU 處理效率低下、GPU 處理不了”的負(fù)載卸載到專用 DPU,提升整個(gè)計(jì)算系統(tǒng)的效率,降低整體系統(tǒng)的總體擁有成本(TCO)。
CPU 資源負(fù)載過(guò)大為行業(yè)痛點(diǎn),智能網(wǎng)卡(Smart NIC)為 DPU 前身。在通信領(lǐng)域,伴隨著 5G、云網(wǎng)融合時(shí)代的到來(lái),以及虛擬交換等技術(shù)的引入,基于服務(wù)器的網(wǎng)絡(luò)數(shù)據(jù)平面的復(fù)雜性急劇增加。海量的數(shù)據(jù)搬運(yùn)工作被 CPU 承擔(dān),導(dǎo)致網(wǎng)絡(luò)接口帶寬急劇增加,CPU 資源負(fù)載過(guò)大,大大影響了 CPU 將計(jì)算能力釋放到應(yīng)用程序中,為了提高主機(jī) CPU 的處理性能,Smart NIC(智能網(wǎng)卡)將部分CPU 的網(wǎng)絡(luò)功能(如 IP 分片、TCP 分段等)轉(zhuǎn)移到網(wǎng)卡硬件中,起到了加速運(yùn)算的目的,其可視為 DPU 的前身。新一代的 DPU 的優(yōu)勢(shì)在于不僅可以作為運(yùn)算的加速引擎,還具備控制平面的功能,可以更高效的完成網(wǎng)絡(luò)虛擬化、I/O 虛擬化、存儲(chǔ)虛擬化等任務(wù),并徹底將 CPU 的算力釋放給應(yīng)用程序。
功能方面,DPU 具備集成基礎(chǔ)業(yè)務(wù)、網(wǎng)絡(luò)數(shù)據(jù)加速、零信任保護(hù)、算存分離等多種功能。可有效解決當(dāng)前 CPU 算力無(wú)法完全作用到應(yīng)用程序,數(shù)據(jù)處理速度慢,授信導(dǎo)致的數(shù)據(jù)泄露,存儲(chǔ)方案兼容性差等諸多問(wèn)題。具體來(lái)說(shuō):
1.DPU 實(shí)現(xiàn)了業(yè)務(wù)與基礎(chǔ)設(shè)施的操作分離。DPU 將基礎(chǔ)設(shè)施任務(wù)從 CPU 轉(zhuǎn)移至 DPU,釋放 CPU 的資源,使更多的服務(wù)器 CPU 核可用于運(yùn)行應(yīng)用程序,完成業(yè)務(wù)計(jì)算,從而提高服務(wù)器和數(shù)據(jù)中心的效率。
2.DPU 卸載網(wǎng)絡(luò)數(shù)據(jù),實(shí)現(xiàn)性能提升。DPU 針對(duì)云原生環(huán)境進(jìn)行了優(yōu)化,提供數(shù)據(jù)中心級(jí)的軟件定義和硬件加速的網(wǎng)絡(luò)、存儲(chǔ)、安全和管理等服務(wù)。根據(jù)程序員客棧數(shù)據(jù),紅帽 Red Hat 的容器化云平臺(tái)即服務(wù)(PaaS)0penShift 上,借助 DPU優(yōu)化數(shù)據(jù)中心資源利用率,將網(wǎng)絡(luò)相關(guān)的數(shù)據(jù)處理(如 VxLan 和 IPSec 等)卸載到 DPU 加速執(zhí)行,在 25Gb/s 網(wǎng)絡(luò)條件下,Open Shift 部署 DPU 用來(lái)加速,可以只用 1/3 的 CPU 占用率來(lái)達(dá)到 25Gb/s 性能,而在 100Gb/s 網(wǎng)絡(luò)條件下,未部署 DPU 的場(chǎng)景將達(dá)不到 100Gb/s 網(wǎng)絡(luò)線速,DPU 可以帶來(lái) 10 倍的性能優(yōu)勢(shì)。
3.DPU 可以提供零信任安全保護(hù),零信任(Zero Trust)是一種以安全性為中心的模型,其基于以下思想︰企業(yè)不應(yīng)對(duì)其內(nèi)外的任何事物授予默認(rèn)信任選項(xiàng)。零信任可以減少數(shù)據(jù)泄露、拒絕未授權(quán)的訪問(wèn),因此在數(shù)據(jù)安全方面價(jià)值很大。
方式:DPU 通過(guò)將控制平面由主機(jī)下放到了 DPU,來(lái)為企業(yè)提供零信任保護(hù),實(shí)現(xiàn)主機(jī)業(yè)務(wù)和控制平面的完全隔離,數(shù)據(jù)將無(wú)法進(jìn)行穿透,保證安全性。
DPU 的出現(xiàn)相當(dāng)于為每個(gè)服務(wù)器配備了一臺(tái)“計(jì)算機(jī)前的計(jì)算機(jī)”,以提供獨(dú)立、安全的基礎(chǔ)設(shè)施服務(wù),并與服務(wù)器應(yīng)用域安全隔離。如果主機(jī)遭受入侵,安全控制代理與被入侵主機(jī)之間的 DPU 隔離層可防止攻擊擴(kuò)散至整個(gè)數(shù)據(jù)中心。這樣 DPU就解決了企業(yè)不愿直接在計(jì)算平臺(tái)上部署安全代理的情況。通過(guò)在完全隔離于應(yīng)用程序域的DPU 上部署安全代理,企業(yè)不僅能獲得對(duì)應(yīng)用程序工作負(fù)載的可見(jiàn)性,還能在其基礎(chǔ)設(shè)施中執(zhí)行一致的安全策略。
4.DPU 助力實(shí)現(xiàn)“算存分離”,BlueField SNAP 技術(shù)方案通過(guò)在服務(wù)器系統(tǒng)的數(shù)據(jù)入口處引入計(jì)算資源,在 DPU 上獨(dú)立實(shí)現(xiàn)面對(duì)應(yīng)用需求的存儲(chǔ)方案,幫助存儲(chǔ)廠商在數(shù)據(jù)中心中低成本地靈活部署、升級(jí)高級(jí)存儲(chǔ)協(xié)議,而完全不需要對(duì)現(xiàn)有軟件棧進(jìn)行任何更改。存儲(chǔ)廠商可以把自家團(tuán)隊(duì)為各行業(yè)應(yīng)用開(kāi)發(fā)的開(kāi)放系統(tǒng)的直連式存儲(chǔ)(DAS)、縱向擴(kuò)展(Scale-up)、橫向擴(kuò)展(Scale-out)、超融合架構(gòu)(Hyperconverged)等存儲(chǔ)解決方案,零開(kāi)銷地推廣到各個(gè)應(yīng)用領(lǐng)域的現(xiàn)有業(yè)務(wù)處理平臺(tái)和數(shù)據(jù)中心基礎(chǔ)架構(gòu)中,而所有的安全加密、數(shù)據(jù)壓縮、負(fù)載均衡等復(fù)雜又必須的功能則完全由 DPU 透明地卸載。存儲(chǔ)行業(yè)的革新算法和實(shí)現(xiàn),可以在 DPU架構(gòu)中,獨(dú)立于服務(wù)器操作系統(tǒng)進(jìn)行部署。DPU 技術(shù)幫助存儲(chǔ)廠商實(shí)現(xiàn)真正的“算存分離”,完全發(fā)揮自家產(chǎn)品的技術(shù)優(yōu)勢(shì),打通最高效服務(wù)應(yīng)用需求的通路。
3、依托智能網(wǎng)卡化繭成蝶,F(xiàn)PGA 及混合架構(gòu)路線為主流
Smart NIC 可以被看作 DPU 的前身,包含基于多個(gè) CPU 內(nèi)核的 ASIC 和基于 FPGA 的智能網(wǎng)卡等類型。隨著技術(shù)的發(fā)展,F(xiàn)PGA、ASIC 和 SoC 也在相互融合,它們之間的界限越來(lái)越模糊。例如,隨著 FPGA 的發(fā)展,現(xiàn)在很多 FPGA 內(nèi)部集成了硬核,這種硬核就是傳統(tǒng)意義上的 ASIC;從硬件可編程的角度來(lái)看,SoC 與 FPGA 相反,它可以看作 ASIC,這里的 ASIC 主要指硬件不可編程,而不是單指特定功能芯片。
NIC 代表網(wǎng)絡(luò)接口卡。實(shí)際上,NIC 是一種插入服務(wù)器或存儲(chǔ)盒以連接到以太網(wǎng)網(wǎng)絡(luò)的 PCIe 卡?;?DPU 的 Smart NIC 超越了簡(jiǎn)單的連接,在基礎(chǔ) NIC 的情況下,在 NIC 上實(shí)現(xiàn)了 CPU 必須執(zhí)行的網(wǎng)絡(luò)流量處理。
基于 DPU 的 Smart NIC 可以是基于 ASIC、FPGA 和 SoC 的。在這些不同的路線之間,在成本、編程的易用性和靈活性方面存在各種權(quán)衡。1)ASIC 具有成本效益,可能提供最佳性價(jià)比,但靈活性有限?;?ASIC 的 NIC,如 NVIDIA ConnectX-5,可以具有相對(duì)簡(jiǎn)單的可編程數(shù)據(jù)路徑。最終,該功能基于 ASIC 中定義的功能而受到限制,這可能會(huì)阻止支持某些工作負(fù)載。2)相比之下,F(xiàn)PGA NIC(如 NVIDIA Innova-2 Flex)具有高度可編程性。只要有足夠的時(shí)間和精力,就可以在可用門的約束范圍內(nèi)相對(duì)高效地支持幾乎任何功能。然而,眾所周知,F(xiàn)PGA 編程困難且價(jià)格昂貴。3)對(duì)于更復(fù)雜的用例,SOC(如 Mellanox BlueField DPU–可編程智能網(wǎng)卡)提供了似乎是最好的基于 DPU 的 Smart NIC 實(shí)現(xiàn)。
4、DPU核心價(jià)值在于算力的卸載釋放與擴(kuò)展,異構(gòu)算力互聯(lián)推動(dòng) DPU 多領(lǐng)域高速發(fā)展
1.算力卸載:即利用 DPU 集成一部分?jǐn)?shù)據(jù)處理的基本功能,然后將這些功能從 CPU 中卸載下來(lái),以提升 CPU 針對(duì)部分應(yīng)用的算力。DPU 的部分價(jià)值體現(xiàn)在節(jié)省這部分算力的成本-DPU 自身的成本。因此 DPU 節(jié)省的算力越多,或 DPU 的成本越低,其帶來(lái)的價(jià)值越高。與此同時(shí),由于 DPU 的專用化,DPU 將部分涉及網(wǎng)絡(luò)、存儲(chǔ)、安全、管理相關(guān)的控制功能卸載之后,還將使得業(yè)務(wù)性能得以提升,因此 DPU 的另一部分價(jià)值在于其可為業(yè)務(wù)節(jié)省的時(shí)間與使用體驗(yàn)。
根據(jù)技術(shù)鄰數(shù)據(jù),在大型數(shù)據(jù)中心的場(chǎng)景之中,DPU 的算力卸載功能可用于減少數(shù)據(jù)中心稅。由于在數(shù)據(jù)中心流量處理占了計(jì)算 30%的資源,AWS 將這些還未運(yùn)行業(yè)務(wù)程序,先接入網(wǎng)絡(luò)數(shù)據(jù)就要占去的計(jì)算資源稱為“數(shù)據(jù)中心稅(Data center Tax)”。
在數(shù)據(jù)安全場(chǎng)景中,DPU 由于其獨(dú)立、安全的架構(gòu),可將部分加密、解密算法固化在 DPU硬件之中,以物理隔離的方式解決用戶在海量數(shù)據(jù)的數(shù)據(jù)安全問(wèn)題,為外部網(wǎng)絡(luò)業(yè)務(wù)租戶之間提供額外的安全層。
2. 根據(jù)中國(guó)信通院數(shù)據(jù),算力釋放:算力釋放無(wú)需 CPU 介入多次訪問(wèn)內(nèi)存和外設(shè),避免不必要的數(shù)據(jù)搬運(yùn),拷貝和上下文的切換,直接在網(wǎng)卡硬件上對(duì)數(shù)據(jù)完成處理并交付給最終消費(fèi)數(shù)據(jù)的應(yīng)用。傳統(tǒng)以 CPU 為中心的計(jì)算機(jī)體系結(jié)構(gòu)在處理數(shù)據(jù)的過(guò)程中需要多次在內(nèi)核和應(yīng)用之間拷貝和訪問(wèn)數(shù)據(jù),帶來(lái)的是極大的性能損耗。以數(shù)據(jù)為中心的 DPU 架構(gòu)則可以有效改善 CPU 過(guò)度參與數(shù)據(jù)處理的問(wèn)題,在數(shù)據(jù)處理的過(guò)程中不需要 CPU 參與,直接將數(shù)據(jù)送達(dá)應(yīng)用、相關(guān)的 GPU或者存儲(chǔ)設(shè)備,能夠有效避免性能瓶頸和由于 CPU 負(fù)載過(guò)大而引發(fā)的異常。
DPU 架構(gòu)和技術(shù),使服務(wù)器上運(yùn)行的業(yè)務(wù)應(yīng)用和操作系統(tǒng)內(nèi)核,用簡(jiǎn)單的本地存儲(chǔ)訪問(wèn) API,就能實(shí)現(xiàn)對(duì)分布式、超融合或軟件定義存儲(chǔ)系統(tǒng)的高效透明訪問(wèn)。存儲(chǔ)廠商可以把為各行業(yè)應(yīng)用開(kāi)發(fā)的直連式存儲(chǔ)(DAS)、縱向擴(kuò)展(Scale-up)、橫向擴(kuò)展(Scale-out)、超融合架構(gòu)(Hyperconverged)等存儲(chǔ)解決方案,零開(kāi)銷地推廣到各個(gè)應(yīng)用領(lǐng)域的現(xiàn)有業(yè)務(wù)處理平臺(tái)和數(shù)據(jù)中心基礎(chǔ)架構(gòu)中,而所有的安全加密、數(shù)據(jù)壓縮、負(fù)載均衡等復(fù)雜又必須的功能則完全由 DPU 透明地卸載。存儲(chǔ)行業(yè)的革新算法和實(shí)現(xiàn),可以在 DPU 架構(gòu)中,獨(dú)立于服務(wù)器操作系統(tǒng)進(jìn)行部署。
DPU 技術(shù)幫助存儲(chǔ)廠商實(shí)現(xiàn)真正的“算存分離”,完全發(fā)揮自家產(chǎn)品的技術(shù)優(yōu)勢(shì),打通最高效服務(wù)應(yīng)用需求的通路。
3.算力擴(kuò)展:算力擴(kuò)展即通過(guò)有效避免擁塞消除跨節(jié)點(diǎn)的網(wǎng)絡(luò)通信瓶頸,顯著降低分布式應(yīng)用任務(wù)周期中的通信耗時(shí)占比,在大規(guī)模的集群維度提升計(jì)算集群的整體算力。為了提升算力,業(yè)界在多條路徑上持續(xù)演進(jìn)。通用 CPU 已很難繼續(xù)通過(guò)提升單核單線程的性能和擴(kuò)展片內(nèi)多核的方式來(lái)大幅提升算力。單核芯片的工藝提升至 3nm 后,發(fā)展放緩;通過(guò)疊加多核提升算力,隨著核數(shù)的增加,單位算力功耗也會(huì)顯著增長(zhǎng),當(dāng) 128 核增至 256 核時(shí),總算力水平無(wú)法線性提升。在計(jì)算單元的工藝演進(jìn)已經(jīng)逼近基線,為了滿足大算力的需求,通過(guò)分布式系統(tǒng),擴(kuò)大計(jì)算集群規(guī)模,提升網(wǎng)絡(luò)帶寬,降低網(wǎng)絡(luò)延遲成為提升數(shù)據(jù)中心集群算力的主要手段。
5、DPU 帶動(dòng)異構(gòu)算力互聯(lián),應(yīng)用市場(chǎng)涵蓋高新技術(shù)產(chǎn)業(yè)多領(lǐng)域
異構(gòu)算力互聯(lián)即為 GPU、FPGA、ASIC 或其它加速卡與 CPU 之間的數(shù)據(jù)連接。在 CPU 與加速卡之間,以及加速卡之間形成的芯片互聯(lián)技術(shù)被更多的采用,雖然 PCIe 有著非常通用的標(biāo)準(zhǔn)化設(shè)計(jì),但帶寬有限將會(huì)產(chǎn)生瓶頸。以 CXL 和 Gen-Z 為代表的等下一代互聯(lián)技術(shù)取得快速發(fā)展,DPU 作為各種高速互聯(lián)協(xié)議融合的沙盒,最適合成為靈活的高速互聯(lián)載體,通過(guò)采用和擴(kuò)展“以內(nèi)存為中心”的互聯(lián)協(xié)議,將帶來(lái)在單個(gè)機(jī)箱外部擴(kuò)展亞微秒級(jí)延遲技術(shù)的機(jī)會(huì),為下一代計(jì)算架構(gòu)創(chuàng)新創(chuàng)造可能性。
伴隨信息化建設(shè)與應(yīng)用的而深入,市場(chǎng)持續(xù)高漲,DPU 產(chǎn)業(yè)在電信、互聯(lián)網(wǎng)、智能駕駛、AI 服務(wù)器及其他行業(yè)應(yīng)用需求不斷增長(zhǎng)。
1)在電信領(lǐng)域,三大運(yùn)營(yíng)商均積極布局,推動(dòng)產(chǎn)品驗(yàn)證,并提出與產(chǎn)業(yè)鏈上的廠商推動(dòng) DPU 產(chǎn)業(yè)發(fā)展的合作意愿。
2)在互聯(lián)網(wǎng)領(lǐng)域,隨著云計(jì)算、云原生等業(yè)務(wù)場(chǎng)景的發(fā)展需求,DPU 作為數(shù)據(jù)中心演進(jìn)的焦點(diǎn),受到各大云廠商的廣泛關(guān)注。頭部廠商紛紛投入資源嘗試自研或者戰(zhàn)略合作,降本增效,實(shí)現(xiàn)效益的最大化。
3)在智能駕駛領(lǐng)域,國(guó)內(nèi)外芯片廠商加速布局智能駕駛,不斷提升研發(fā)效率,為 DPU 的市場(chǎng)發(fā)展奠定基礎(chǔ)。
4)針對(duì) AI 服務(wù)器及其他領(lǐng)域?qū)用?,在?shù)字經(jīng)濟(jì)和“東數(shù)西算”等政策影響下,中國(guó) AI服務(wù)器、金融、終端政企及其他領(lǐng)域持續(xù)高速發(fā)展,對(duì)算力的需求不斷增加,傳統(tǒng)的技術(shù)已無(wú)法滿足當(dāng)前業(yè)務(wù)的發(fā)展需求,DPU 能夠提供成熟的硬件加速方案,提升整個(gè)系統(tǒng)的效率,為 AI 服務(wù)器、金融及其他領(lǐng)域的發(fā)展提供技術(shù)支撐,全面推進(jìn)DPU 產(chǎn)業(yè)未來(lái)的發(fā)展進(jìn)程。?