最新全球權(quán)威AI基準(zhǔn)測(cè)試榜單:浪潮和NVIDIA霸榜了
本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。
今天,全球權(quán)威AI基準(zhǔn)測(cè)試MLPerf最新推理榜單v1.0版正式公布。
在總計(jì)42個(gè)競(jìng)賽項(xiàng)目中,浪潮獲得18項(xiàng)性能第一,英偉達(dá)獲得10項(xiàng)性能第一,兩家廠商占據(jù)了70%的冠軍榜單,分別成為成績(jī)最好的系統(tǒng)廠商及芯片廠商,成績(jī)遙遙領(lǐng)先。
△ 注:42個(gè)賽道,共決出41項(xiàng)冠軍(其中一賽道無(wú)廠商提交成績(jī))
最新一期MLPerf共有17家廠商參與, 英偉達(dá)、英特爾、高通、阿里巴巴、浪潮、戴爾、HPE等全球AI領(lǐng)先公司悉數(shù)在列,競(jìng)爭(zhēng)極為激烈。
測(cè)試內(nèi)容
MLPerf推理性能榜單從v0.5開(kāi)始,至今已發(fā)布3次。這次的重大升級(jí)是版本進(jìn)化到v1.0,因此測(cè)試內(nèi)容更加規(guī)范,對(duì)測(cè)試硬件提出了更為細(xì)致的要求。
本次MLPerf推理性能測(cè)試總共包含6項(xiàng),具體內(nèi)容和參數(shù)如下:

AI服務(wù)器廠商比比看
MLPerf推理性能測(cè)試硬件分為“數(shù)據(jù)中心”和“邊緣”兩個(gè)場(chǎng)景。每類場(chǎng)景都包含固定任務(wù)(Closed)和開(kāi)放優(yōu)化(Open)兩類性能競(jìng)賽。
其中,固定任務(wù)(Closed)強(qiáng)調(diào)AI計(jì)算系統(tǒng)的公平比較,參賽各方基于同一參考實(shí)現(xiàn),沒(méi)有針對(duì)硬件做特殊軟件優(yōu)化。
固定任務(wù)競(jìng)賽衡量的是同一深度學(xué)習(xí)模型在不同硬件上的性能,重點(diǎn)考察參測(cè)廠商硬件系統(tǒng)和軟件優(yōu)化的能力,廣受廠商和客戶看重。
△ 固定任務(wù)6大賽道(精度99%)排名第一服務(wù)器
數(shù)據(jù)中心分別在兩種條件下進(jìn)行測(cè)試。第一種是“離線”情況,其中所有數(shù)據(jù)都在單個(gè)數(shù)據(jù)庫(kù)中可用。
第二個(gè)是模擬了數(shù)據(jù)中心服務(wù)器的真實(shí)情況,在該環(huán)境中,數(shù)據(jù)以突發(fā)方式到達(dá)服務(wù)器,要求系統(tǒng)必須能夠足夠快速、準(zhǔn)確地完成其工作,才能處理下一個(gè)突發(fā)。
在數(shù)據(jù)中心固定任務(wù)“主賽道”中,共有13家廠商提交了584項(xiàng)競(jìng)賽成績(jī),是競(jìng)爭(zhēng)最激烈的賽道。
在數(shù)據(jù)中心固定任務(wù)場(chǎng)景的16項(xiàng)競(jìng)賽中,浪潮獲得11項(xiàng)第一,戴爾獲得3項(xiàng)第一,Supermicro獲得2項(xiàng)第一;而NVIDIA、浪潮包攬了邊緣固定任務(wù)場(chǎng)景的17項(xiàng)冠軍,NVIDIA獲得10項(xiàng)第一,浪潮獲得7項(xiàng)第一。
在邊緣固定任務(wù)重要賽道中,共有11家廠商提交了326項(xiàng)競(jìng)賽成績(jī),顯示出廠商對(duì)邊緣與AI融合的關(guān)注度日益提升。
關(guān)于MLPerf
MLPerf由圖靈獎(jiǎng)得主大衛(wèi)·帕特森(David Patterson)聯(lián)合谷歌、斯坦福、哈佛大學(xué)等頂尖學(xué)術(shù)機(jī)構(gòu)發(fā)起成立,是權(quán)威性最大、影響力最廣的國(guó)際AI性能基準(zhǔn)測(cè)試,地位相當(dāng)于全球AI領(lǐng)域的“奧運(yùn)會(huì)”。
MLPerf榜單每年定期發(fā)布基準(zhǔn)測(cè)試數(shù)據(jù),其結(jié)果被國(guó)際社會(huì)廣泛認(rèn)可。
2020年,MLPerf發(fā)布了第二個(gè)AI推理跑分榜單v0.7,當(dāng)時(shí)浪潮AI服務(wù)器NF5488A5創(chuàng)造18項(xiàng)性能記錄。
完整榜單地址:
https://mlcommons.org/en/news/mlperf-inference-v10/