自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

首個(gè)二值量化評(píng)測(cè)基準(zhǔn)來(lái)了,北航/NTU/ETH聯(lián)合提出,論文登ICML 2023

人工智能 新聞
來(lái)自北京航空航天大學(xué)、南洋理工大學(xué)、蘇黎世聯(lián)邦理工大學(xué)的研究者,全新推出了首個(gè)二值量化評(píng)測(cè)基準(zhǔn)BiBench。

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

二值量化可以有效節(jié)約AI模型消耗的資源。

具體而言,它可以把32位浮點(diǎn)數(shù)值壓縮到1位,大大降低了存儲(chǔ)和運(yùn)算成本。

然而,此前對(duì)二值量化模型質(zhì)量的評(píng)測(cè)一直停留在理論層面,難以對(duì)算法在準(zhǔn)確性和效率方面的表現(xiàn)進(jìn)行全面評(píng)估。

為此,來(lái)自北京航空航天大學(xué)、南洋理工大學(xué)、蘇黎世聯(lián)邦理工大學(xué)的研究者,全新推出了首個(gè)二值量化評(píng)測(cè)基準(zhǔn)BiBench。

圖片

相關(guān)論文已被ICML 2023接收。

近日,機(jī)器學(xué)習(xí)頂會(huì) ICML 2023接收論文結(jié)果已經(jīng)正式公布。在 6538篇有效投稿中,最終有1827篇論文被接收,錄取率約為 27.9%。

論文地址:https://arxiv.org/abs/2301.11233
項(xiàng)目地址:https://github.com/htqin/BiBench

背景及概述

隨著深度學(xué)習(xí)的興起,較大模型的高資源需求與部署資源限制之間的矛盾持續(xù)加劇,模型壓縮技術(shù)被廣泛研究以解決這一問(wèn)題。

神經(jīng)網(wǎng)絡(luò)二值化作為將模型參數(shù)位寬減少到1位的壓縮方法,被視為最極致的量化技術(shù),能夠極大地降低模型存儲(chǔ)開(kāi)銷(xiāo),并通過(guò)高效的位運(yùn)算加速模型推理。

然而,現(xiàn)有的神經(jīng)網(wǎng)絡(luò)二值化算法仍然遠(yuǎn)非實(shí)用,局限主要存在于兩方面:

1) 模型精度評(píng)估范圍有限:目前的大部分工作主要都在CIFAR-10以及ImageNet這類2D圖像分類任務(wù)上展開(kāi)的,同時(shí)數(shù)據(jù)噪聲在二值化算法的評(píng)估中也時(shí)常被忽略;

2) 效率分析仍停留在理論層面:由于缺乏二值神經(jīng)網(wǎng)絡(luò)部署庫(kù),大部分工作對(duì)于二值化算法的壓縮以及加速效果主要停留在理論分析層面。

精度和效率相關(guān)對(duì)比標(biāo)準(zhǔn)的缺失使得新二值化算法的貢獻(xiàn)逐漸模糊,架構(gòu)通用的二值算子改進(jìn)很難在對(duì)比中脫穎而出,而這本應(yīng)是模型量化類技術(shù)的主要優(yōu)勢(shì)。

圖片

△ 圖 1: BiBench評(píng)估軌道與結(jié)果

為了解決以上的這些問(wèn)題,本文提出了BiBench (Binarization Benchmark),這是一個(gè)神經(jīng)網(wǎng)絡(luò)二值化算法評(píng)測(cè)基準(zhǔn),旨在全面評(píng)估二值化算法在準(zhǔn)確性和效率方面的表現(xiàn)。

BiBench評(píng)估了8個(gè)基于算子級(jí)別并具有廣泛影響力的代表性二值化算法,并在9個(gè)深度學(xué)習(xí)數(shù)據(jù)集、13個(gè)神經(jīng)架構(gòu)、2個(gè)部署庫(kù)、14個(gè)硬件芯片以及各種超參數(shù)設(shè)置下對(duì)算法進(jìn)行了基準(zhǔn)測(cè)試。

BiBench消耗了約4個(gè)GPU年的計(jì)算時(shí)間來(lái)完成實(shí)際測(cè)試,全面地評(píng)估了神經(jīng)網(wǎng)絡(luò)二值化算法,并針對(duì)基準(zhǔn)的測(cè)試結(jié)果進(jìn)行了深入的分析,為設(shè)計(jì)實(shí)用的二值化算法提供了有效建議。

評(píng)估軌道及指標(biāo)

如圖1所示,BiBench的評(píng)估主要包含了面向精度的評(píng)測(cè)以及面向效率的評(píng)測(cè)這兩個(gè)方面,共計(jì)六個(gè)評(píng)測(cè)軌道,每個(gè)軌道都有相應(yīng)的評(píng)測(cè)指標(biāo),有效地解決了在生產(chǎn)和部署二值化網(wǎng)絡(luò)中面臨的實(shí)際挑戰(zhàn)。

面向精度的二值化算法評(píng)估

在面向精度的二值化算法評(píng)估中,主要包括了“學(xué)習(xí)任務(wù)”,“網(wǎng)絡(luò)架構(gòu)”和“擾動(dòng)魯棒性”這三個(gè)評(píng)測(cè)軌道。

圖片

學(xué)習(xí)任務(wù)

在“學(xué)習(xí)任務(wù)”這一軌道上,本文詳盡地評(píng)測(cè)了二值化算法在四個(gè)模態(tài)共計(jì)九個(gè)深度學(xué)習(xí)數(shù)據(jù)集上的性能表現(xiàn)。

在2D視覺(jué)模態(tài)上,本文評(píng)估了在CIFAR-10和ImageNet數(shù)據(jù)集上的圖像分類任務(wù),在PASCAL VOC以及COCO數(shù)據(jù)集上的目標(biāo)檢測(cè)任務(wù)。

在3D視覺(jué)模態(tài)上評(píng)估了在ModelNet40數(shù)據(jù)集上的3D點(diǎn)云分類任務(wù)以及在ShapeNet數(shù)據(jù)集上的3D點(diǎn)云分割任務(wù)。

在文本模態(tài)評(píng)估了在GLUE 基準(zhǔn)上的自然語(yǔ)言理解任務(wù)。在語(yǔ)音模態(tài)評(píng)估了在Speech Commands KWS dataset上的語(yǔ)音識(shí)別任務(wù)。

為了定量地評(píng)估不同二值化算法在這個(gè)軌道上的性能表現(xiàn),本文將對(duì)應(yīng)的全精度神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率作為了基線,并計(jì)算了所有任務(wù)上所有架構(gòu)的平均相對(duì)準(zhǔn)確率。

所有任務(wù)的相對(duì)準(zhǔn)確率的二次均值作為該軌道的整體指標(biāo),計(jì)算公式如下:

圖片

其中和分別代表了二值化模型和全精度模型在第i個(gè)任務(wù)上的準(zhǔn)確率。

網(wǎng)絡(luò)架構(gòu)

在“網(wǎng)絡(luò)架構(gòu)”這一軌道上,本文評(píng)估了多種神經(jīng)網(wǎng)絡(luò)架構(gòu),包括主流的基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的架構(gòu),基于Transformer的架構(gòu)以及基于多層感知機(jī)(MLP)的架構(gòu)。

具體來(lái)說(shuō),本文將標(biāo)準(zhǔn)的ResNet-18/20/34以及VGG作為了基于卷積神經(jīng)網(wǎng)絡(luò)的評(píng)估架構(gòu),并將Faster-RCNN以及SSD300框架作為了目標(biāo)檢測(cè)任務(wù)中的檢測(cè)器。

對(duì)于基于Transformer的架構(gòu)使用了bi-attention機(jī)制二值化了BERT-Tiny4/Tiny6/Base模型以便于收斂。

同時(shí)也評(píng)估了多種基于多層感知機(jī)(MLP)的架構(gòu),包括了PointNetvanilla, 帶有EMA聚合器的PointNet, FSMN以及Deep-FSMN.

和“學(xué)習(xí)任務(wù)”軌道類似,在“網(wǎng)絡(luò)架構(gòu)”軌道上,本文也使用了相似的整體指標(biāo),其計(jì)算公式如下:

圖片

擾動(dòng)魯棒性

在部署時(shí),二值化的擾動(dòng)魯棒性對(duì)于應(yīng)對(duì)某些場(chǎng)景(如感知設(shè)備損壞)至關(guān)重要,這在現(xiàn)實(shí)世界中邊緣設(shè)備的應(yīng)用中是一個(gè)常見(jiàn)問(wèn)題。

因此,本文同時(shí)也評(píng)估了二值化算法在CIFAR10-C 基準(zhǔn)上的表現(xiàn),用于評(píng)估二值化模型在2D視覺(jué)數(shù)據(jù)損壞情況下的魯棒性,其整體指標(biāo)計(jì)算公式如下:

圖片

在這里

圖片

代表了擾動(dòng)泛化差距,其中

圖片

圖片

分別表示在第i個(gè)擾動(dòng)任務(wù)和相應(yīng)的正常任務(wù)下,所有架構(gòu)的準(zhǔn)確性結(jié)果。

圖片

面向效率的二值化算法評(píng)估

在面向效率的二值化算法評(píng)估中,主要包括了“訓(xùn)練開(kāi)銷(xiāo)”,“理論復(fù)雜度”和“硬件推理”三個(gè)評(píng)測(cè)軌道。

其中“訓(xùn)練開(kāi)銷(xiāo)”軌道主要評(píng)估二值化算法的生產(chǎn)效率,而其余兩個(gè)軌道評(píng)估了二值化算法的部署效率。

圖片

訓(xùn)練開(kāi)銷(xiāo)

在“訓(xùn)練開(kāi)銷(xiāo)”軌道上,本文主要考慮了二值化算法所占用的訓(xùn)練資源和對(duì)超參數(shù)的敏感性,這些因素影響單次訓(xùn)練的消耗和整體調(diào)優(yōu)過(guò)程。

為了評(píng)估調(diào)整二值化算法以達(dá)到最佳性能的難易程度,本文使用不同的超參數(shù)設(shè)置訓(xùn)練二值化網(wǎng)絡(luò),包括不同的學(xué)習(xí)率、學(xué)習(xí)率調(diào)度器、優(yōu)化器甚至隨機(jī)種子,將二值化網(wǎng)絡(luò)和全精度網(wǎng)絡(luò)的訓(xùn)練輪次對(duì)齊,并比較了它們的消耗和時(shí)間。

定量的整體指標(biāo)的計(jì)算公式如下:

圖片

其中

圖片

表示單次訓(xùn)練實(shí)例所花費(fèi)的時(shí)間,

圖片

是使用不同超參數(shù)配置獲得的準(zhǔn)確率。

理論復(fù)雜度

在“理論復(fù)雜度”這一軌道上,本文主要計(jì)算模型二值化前后模型的壓縮比合加速比,理論復(fù)雜度的總體指標(biāo)的計(jì)算公式如下:


其中

圖片

圖片

分別代表了二值化算法的壓縮比和加速比,二值化參數(shù)由于只占據(jù)1個(gè)bit,相較于32位浮點(diǎn)數(shù)只占據(jù)1/32的存儲(chǔ)空間;

而二值化模型在推理過(guò)程中,僅包含1位權(quán)重乘以1位激活值的開(kāi)銷(xiāo),在具有64位指令大小的CPU上需要大約1/64的FLOPs(floating point operations per second),因此二值化算法的壓縮比和加速比的計(jì)算方式如下:

圖片

其中

圖片

圖片

分別是原始模型和二值化模型中保留的全精度參數(shù)的數(shù)量,

圖片

圖片

代表了模型的計(jì)算力。

硬件推理

由于二值化算法在硬件部署庫(kù)上尚未得到廣泛支持,目前僅有兩個(gè)常用推理庫(kù) - Larq Compute Engine 和京東的 daBNN 提供了完整的流程以將二值化模型實(shí)際部署到 ARM 硬件上。

因此,本文主要依據(jù)這兩個(gè)推理庫(kù),評(píng)估了二值化模型在邊緣場(chǎng)景下主流硬件上的 ARM CPU 推理性能,如華為麒麟,高通驍龍,蘋(píng)果 M1,聯(lián)發(fā)科天璣和樹(shù)莓派。

對(duì)于給定的二值化算法,使用不同推理庫(kù)和硬件下的存儲(chǔ)和推理時(shí)間節(jié)省作為評(píng)估指標(biāo),總體評(píng)估指標(biāo)計(jì)算方式如下:

圖片

其中

圖片

是模型的推理時(shí)間,

圖片

是模型在不同設(shè)備上的存儲(chǔ)開(kāi)銷(xiāo)。

評(píng)估及分析

BiBench從二值算法的準(zhǔn)確性和效率兩方面,全面地評(píng)估了所選二值算法的性能表現(xiàn)。

二值算法的準(zhǔn)確性分析

本文分別針對(duì)不同任務(wù)、針對(duì)不同模型架構(gòu)、針對(duì)擾動(dòng)魯棒性三個(gè)軌道,評(píng)估了各二值算法的準(zhǔn)確率。上表匯報(bào)了基于相關(guān)性度量的模型準(zhǔn)確率表現(xiàn)。

從學(xué)習(xí)任務(wù)的角度

模型準(zhǔn)確率仍然是目前二值算法研究中最具挑戰(zhàn)性的難題。

BiBench將訓(xùn)練流程和模型架構(gòu)完全統(tǒng)一,以此來(lái)觀察不同二值算法的表現(xiàn)。

發(fā)現(xiàn)在大多數(shù)任務(wù)中,二值算法的準(zhǔn)確率表現(xiàn)仍然是有限的。在大規(guī)模視覺(jué)數(shù)據(jù)集ImageNet和COCO上,二值模型的準(zhǔn)確率往往是對(duì)應(yīng)的全精度模型的不到80%。

而且,準(zhǔn)確率的邊際效應(yīng)在二值算法中已經(jīng)出現(xiàn),比如,在ImageNet數(shù)據(jù)集上,最先進(jìn)的ReCU算法比最樸素的BNN算法準(zhǔn)確率僅僅高了3%。

二值算法在不同數(shù)據(jù)模態(tài)下的表現(xiàn)差異很大。

二值算法在文本理解任務(wù)GLUE數(shù)據(jù)集上的精度降低非常嚴(yán)重,然而在點(diǎn)云分類的ModelNet40數(shù)據(jù)集上卻有與全精度模型相媲美的準(zhǔn)確率表現(xiàn)。

這表明,二值化的研究中得到的經(jīng)驗(yàn)和啟迪,很難在不同模態(tài)的任務(wù)下直接移用。

總體來(lái)說(shuō),ReCU和ReActNet在各種不同的任務(wù)下都取得了較高的準(zhǔn)確率表現(xiàn),ReCU在4個(gè)獨(dú)立的任務(wù)中獲得了準(zhǔn)確率的第一,而ReActNet獲得了總體準(zhǔn)確率的第一。

兩個(gè)算法都在前向過(guò)程中采用了重參數(shù)化,在反向過(guò)程中采用了梯度近似的方法。

從網(wǎng)絡(luò)架構(gòu)的角度

二值算法在CNN和MLP架構(gòu)上的表現(xiàn)相比在Transformer架構(gòu)上具有明顯的優(yōu)勢(shì)

由于二值算法在CNN架構(gòu)相關(guān)的模型上已有廣泛的研究,一些先進(jìn)的二值算法通常能達(dá)到相比于全精度模型78%~86%的準(zhǔn)確性。

而MLP架構(gòu)上的二值算法甚至能達(dá)到接近全精度模型的準(zhǔn)確率表現(xiàn)(例如Bi-Real Net達(dá)到87.83%)。

與之形成鮮明對(duì)比的是,在二值化Transformer架構(gòu)時(shí)卻受到了嚴(yán)重的精度降低,甚至沒(méi)有一個(gè)算法的整體相對(duì)準(zhǔn)確率能夠超過(guò)70%。

這個(gè)好結(jié)果表明,相比于CNN和MLP架構(gòu)的模型,Transformer架構(gòu)由于其特殊的注意力機(jī)制,對(duì)二值化方法帶來(lái)了更嚴(yán)峻的挑戰(zhàn),現(xiàn)有的對(duì)該機(jī)制的二值化方法還沒(méi)有徹底解決這個(gè)問(wèn)題。

在“網(wǎng)絡(luò)架構(gòu)”軌道上獲得冠軍的是FDA算法,它在CNN和Transformer架構(gòu)上都獲得了最好的準(zhǔn)確率成績(jī)。

關(guān)于任務(wù)和模型架構(gòu)的這兩個(gè)軌道的結(jié)果表明,像FDA和ReActNet的二值算法具有一定的穩(wěn)定性,這兩個(gè)算法都使用了逐通道的縮放參數(shù)和自定義的梯度近似方案。

從擾動(dòng)魯棒性的角度

二值模型能夠達(dá)到與全精度模型同等的魯棒性

令人驚訝的是,雖然二值模型表現(xiàn)出了相對(duì)有限的表征能力和比較明顯的準(zhǔn)確率下降,但是在干擾數(shù)據(jù)集上,他們卻展現(xiàn)出了與全精度模型同等的魯棒性。

在CiFAR10-C數(shù)據(jù)集上,二值算法在常規(guī)2D損毀圖像上的表現(xiàn)接近于全精度模型,而且ReCU和XNOR-Net算法的表現(xiàn)甚至超過(guò)了全精度模型。

這個(gè)事實(shí)表明,二值模型幾乎不需要額外的訓(xùn)練或監(jiān)督,就能達(dá)到與全精度模型同等的魯棒性。

同時(shí),各種二值化算法具有相似的魯棒性表現(xiàn),因此可以將魯棒性視為二值模型的一般屬性,而不僅僅屬于特定算法。

二值算法的效率分析

BiBench分別從“訓(xùn)練開(kāi)銷(xiāo)”、“ 理論復(fù)雜度”、“ 硬件推理”三個(gè)軌道,全面評(píng)估了不同算法的效率。

訓(xùn)練開(kāi)銷(xiāo)

圖片

△ 圖 2: 不同算法的參數(shù)敏感性

本文以CIFAR10數(shù)據(jù)集上的ResNet18為代表,全面地評(píng)估了二值算法的訓(xùn)練開(kāi)銷(xiāo)。上圖和上表展示了不同二值算法的參數(shù)敏感性以及訓(xùn)練時(shí)間。

二值化并不意味著敏感:現(xiàn)有的技術(shù)能夠穩(wěn)定地訓(xùn)練二值算法。

一個(gè)現(xiàn)有的共同的直覺(jué)是,由于二值算法高度的離散性帶來(lái)的表征能力有限和梯度近似的誤差,二值模型的訓(xùn)練可能比全精度模型的訓(xùn)練更加敏感。

但是,本文發(fā)現(xiàn)現(xiàn)有二值算法對(duì)于超參數(shù)的敏感性是兩極分化的,部分二值算法比全精度模型對(duì)于超參數(shù)具有更好的穩(wěn)定性,而另一些二值算法則對(duì)超參數(shù)具有較大的性能波動(dòng)。

對(duì)此,不同的二值技術(shù)有不同的原因。

本文總結(jié)出訓(xùn)練過(guò)程穩(wěn)定的二值算法通常具有以下這些共性:

(1) 基于學(xué)習(xí)或統(tǒng)計(jì)量的逐通道浮點(diǎn)縮放因子;

(2) 降低梯度誤差的梯度近似軟函數(shù)。

這些對(duì)于超參數(shù)穩(wěn)定的二值算法可能并不能獲得比其他算法更好的模型準(zhǔn)確率,但是它們能夠在模型生產(chǎn)階段簡(jiǎn)化訓(xùn)練/微調(diào)的過(guò)程,在單次訓(xùn)練后獲得更可靠的準(zhǔn)確性。

二值算法訓(xùn)練過(guò)程對(duì)于超參數(shù)的偏好是很明顯的

從圖2中所示的結(jié)果來(lái)看,Adam優(yōu)化器、與全精度相同的初始學(xué)習(xí)率 (1x) 和余弦退火的學(xué)習(xí)率策略訓(xùn)練得到的二值模型的表現(xiàn)能夠穩(wěn)定地優(yōu)于其他超參數(shù)訓(xùn)練得到的模型。

受此啟發(fā),本文使用了這組表現(xiàn)最好的超參數(shù)作為標(biāo)準(zhǔn)訓(xùn)練流程的一部分設(shè)置。

梯度近似軟函數(shù)會(huì)增加大量的訓(xùn)練時(shí)間。

對(duì)比每個(gè)二值算法的訓(xùn)練開(kāi)銷(xiāo),本文發(fā)現(xiàn),使用了自定義梯度近似技術(shù)的算法,例如Bi-Real和ReActNet算法,它們的訓(xùn)練時(shí)間有顯著的增加,而 FDA的訓(xùn)練時(shí)間甚至幾乎是全精度模型的5倍。

理論復(fù)雜度

不同的二值模型的算法的理論復(fù)雜度并沒(méi)有明顯的不同

不同算法間壓縮率差異的主要原因在于每個(gè)模型的縮放因子的定義方式不同,例如,BNN 沒(méi)有縮放因子。

對(duì)于理論加速情況,二值算法間的主要區(qū)別來(lái)自兩個(gè)方面。首先,靜態(tài)的縮放因子的壓縮也提高了理論加速比。

其次,對(duì)于激活值實(shí)時(shí)的縮放和均值偏移會(huì)帶來(lái)額外的理論計(jì)算,例如ReActNet,能夠減少0.11×的加速。

但是總的來(lái)說(shuō),本文的實(shí)驗(yàn)表明,各種二值化算法具有相似的理論推理效率。

硬件推理

相比于其他的軌道,“硬件推理”軌道能夠提供一些二值算法在真實(shí)世界部署的啟示。

圖片

極其有限的推理庫(kù)導(dǎo)致了幾乎固定的二值化部署范式

在調(diào)查了現(xiàn)有開(kāi)源推理框架之后,本文發(fā)現(xiàn)能夠支持二值模型在真實(shí)硬件上部署的推理庫(kù)非常少。只有Larq和daBNN擁有完整的二值化算法部署流程,它們主要支持在ARM設(shè)備上進(jìn)行部署。

首先驗(yàn)證這兩個(gè)推理庫(kù)的部署能力,結(jié)果呈現(xiàn)在表4中。兩個(gè)推理庫(kù)都支持逐通道的浮點(diǎn)縮放因子,并強(qiáng)制將它融合進(jìn)BN層,此外,二者都不支持動(dòng)態(tài)激活縮放。

它們唯一的區(qū)別是,Larq能支持激活值基于固定值的偏移。

由于推理庫(kù)的部署限制,能夠?qū)嶋H部署的二值算法是有限的。XNOR++使用的縮放因子是不能部署的,XNOR的激活動(dòng)態(tài)縮放也是不支持的。

除了ReActNet所使用的激活均值偏移會(huì)增加少量的計(jì)算量,其他能夠部署的二值算法,大多具有幾乎完全相同的推理表現(xiàn)。

也就是說(shuō),二值算法必須能夠滿足固定的部署范式才能夠使用現(xiàn)有的推理庫(kù)成功部署,并且它們?cè)谟布暇哂袔缀跸嗤谋憩F(xiàn)。

圖片

△ 圖3: 二值算法在算力越低的硬件芯片上能夠達(dá)到越高的推理加速比

為邊緣而生:芯片的算力越低,二值化模型的加速比越高。

BiBench部署和評(píng)估了十幾個(gè)芯片上的二值化模型,并比較了每個(gè)芯片上二值化算法的平均加速比。

圖3中呈現(xiàn)了一個(gè)反直覺(jué)的規(guī)律:芯片的算力性能越高,二值化模型的加速比越低。

通過(guò)進(jìn)一步觀察,本文發(fā)現(xiàn)這主要是因?yàn)槎嗑€程計(jì)算。性能更好的芯片在運(yùn)行浮點(diǎn)計(jì)算時(shí)使用了更多線程的并行,能夠帶來(lái)顯著的浮點(diǎn)運(yùn)算加速。

因此,相比之下,二值化模型的加速并不明顯。

這意味著二值化技術(shù)真正發(fā)揮作用的場(chǎng)景,是在算力性能和成本較低的邊緣芯片上,而二值化所帶來(lái)的極限壓縮和加速可以促進(jìn)人工智能模型在此類邊緣芯片上的運(yùn)行。

關(guān)于二值算法設(shè)計(jì)的一些建議

基于上述的驗(yàn)證和分析,本文試圖從現(xiàn)有的二值技術(shù)中,總結(jié)一些準(zhǔn)確高效的二值算法的設(shè)計(jì)范式:

(1) 軟量化近似是二值化的一個(gè)必要的技術(shù)。它不會(huì)影響模型在硬件推理時(shí)的高效性,所有在準(zhǔn)確率軌道上表現(xiàn)優(yōu)秀的算法都采用了這個(gè)技術(shù),包括Bi-Real、ReActNet和ReCU。

(2) 逐通道縮放因子是考慮可部署性的唯一選擇。在任務(wù)和架構(gòu)兩軌道上的準(zhǔn)確率結(jié)果說(shuō)明了浮點(diǎn)縮放因子的優(yōu)勢(shì),而現(xiàn)有推理庫(kù)在硬件上的實(shí)際部署能力又限制了縮放因子必須是逐通道的形式。

(3) 對(duì)激活值的均值偏移是一個(gè)有助于準(zhǔn)確率提升的可選項(xiàng)。本文結(jié)果表明這項(xiàng)技術(shù)有助于ReActNet準(zhǔn)確率的提升,并且?guī)缀鯖](méi)有額外的計(jì)算開(kāi)銷(xiāo)。

需要強(qiáng)調(diào)的是,雖然BiBench所包含的六個(gè)軌道能夠幫助找到一些二值網(wǎng)絡(luò)設(shè)計(jì)的基本原則,但是沒(méi)有哪個(gè)算法能在所有場(chǎng)景下都具有優(yōu)勢(shì)。

未來(lái)的二值化算法研究應(yīng)側(cè)重于打破生產(chǎn)與部署之間的互相限制。二值算法應(yīng)遵循可部署的原則進(jìn)行設(shè)計(jì),而推理庫(kù)應(yīng)當(dāng)盡可能地支持先進(jìn)的更高精度的二值算法。

總結(jié)

本文提出了一個(gè)全面的多功能的二值算法基準(zhǔn)框架BiBench,深入地研究了二值算法的最基本的問(wèn)題。

BiBench覆蓋了8種模型二值化算法、13種網(wǎng)絡(luò)架構(gòu)、9個(gè)深度學(xué)習(xí)數(shù)據(jù)集,14種真實(shí)世界的硬件,以及多種超參數(shù)設(shè)置。

此外,BiBench針對(duì)一些關(guān)鍵的特性專門(mén)設(shè)計(jì)了評(píng)測(cè)的軌道,例如在不同條件下的算法準(zhǔn)確性以及在真實(shí)硬件上部署時(shí)的高效性。

更重要的是,通過(guò)整理、總結(jié)和分析實(shí)驗(yàn)結(jié)果,BiBench希望能夠建立一些經(jīng)驗(yàn)性的設(shè)計(jì)范式,其中包含設(shè)計(jì)準(zhǔn)確有效的二值化方法的幾個(gè)關(guān)鍵考慮因素。

研究人員希望,BiBench能夠通過(guò)系統(tǒng)性的研究反映模型二值領(lǐng)域的現(xiàn)實(shí)需求,促進(jìn)算法的公平比較,并作為在更廣泛和更實(shí)際的背景下應(yīng)用模型二值化的基礎(chǔ)。

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2024-04-28 06:56:45

Llama 3大規(guī)模人工智能

2021-07-26 16:31:30

網(wǎng)絡(luò)數(shù)據(jù)技術(shù)

2022-07-12 10:37:08

阿里巴巴達(dá)摩院機(jī)器學(xué)習(xí)

2022-05-11 14:45:48

模型人工智能

2023-07-25 13:59:29

谷歌論文

2023-06-05 16:00:39

語(yǔ)言模型

2023-11-17 22:55:09

量化模型

2022-11-18 18:39:03

AI神經(jīng)網(wǎng)絡(luò)

2025-01-13 07:00:00

2023-04-28 15:17:04

2023-08-31 13:51:37

計(jì)算系統(tǒng)

2023-07-26 13:19:15

論文

2024-08-02 14:53:00

2023-09-26 11:58:32

2024-06-21 13:04:43

2019-03-07 14:11:39

AIIAAI芯片

2023-02-20 14:56:14

圖像

2024-07-11 11:53:56

2023-12-14 13:00:00

AI訓(xùn)練

2024-12-02 10:40:00

AI模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)