自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

華為開源只用加法的神經(jīng)網(wǎng)絡(luò):實(shí)習(xí)生領(lǐng)銜打造,效果不輸傳統(tǒng)CNN

新聞 深度學(xué)習(xí)
沒(méi)有乘法的神經(jīng)網(wǎng)絡(luò),你敢想象嗎?無(wú)論是單個(gè)神經(jīng)元的運(yùn)算還是卷積運(yùn)算,都不可避免地要使用乘法。

 本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

沒(méi)有乘法的神經(jīng)網(wǎng)絡(luò),你敢想象嗎?無(wú)論是單個(gè)神經(jīng)元的運(yùn)算還是卷積運(yùn)算,都不可避免地要使用乘法。

然而乘法對(duì)硬件資源的消耗遠(yuǎn)大于加法。如果不用乘法,全部改用加法應(yīng)該可以讓運(yùn)算速度大大提升。

去年年底,來(lái)自北京大學(xué)、華為諾亞方舟實(shí)驗(yàn)室、鵬城實(shí)驗(yàn)室的研究人員將這一想法付諸實(shí)踐,他們提出了一種只用加法的神經(jīng)網(wǎng)絡(luò)AdderNet(加法器網(wǎng)絡(luò))。一作是華為諾亞方舟實(shí)習(xí)生,正在北大讀博三。

華為開源只用加法的神經(jīng)網(wǎng)絡(luò):實(shí)習(xí)生領(lǐng)銜打造,效果不輸傳統(tǒng)CNN

如今,這篇文章已經(jīng)被CVPR 2020收錄(Oral),官方也在GitHub上開放了源代碼。有興趣的同學(xué)不妨前往一試究竟。

加法器網(wǎng)絡(luò)簡(jiǎn)介

加法器網(wǎng)絡(luò)的核心在于:用L1距離代替歐氏距離。

L1距離是求兩點(diǎn)之間坐標(biāo)差值的絕對(duì)值之和,因此全程不涉及乘法。

華為開源只用加法的神經(jīng)網(wǎng)絡(luò):實(shí)習(xí)生領(lǐng)銜打造,效果不輸傳統(tǒng)CNN

在這種新的定義下,反向傳播中用到的求偏導(dǎo)數(shù)運(yùn)算也變成了求減法。梯度下降的優(yōu)化過(guò)程也被叫做符號(hào)SGD(signSGD)。

華為開源只用加法的神經(jīng)網(wǎng)絡(luò):實(shí)習(xí)生領(lǐng)銜打造,效果不輸傳統(tǒng)CNN

在加法器網(wǎng)絡(luò)的新定義下,特征向量的空間分布也和CNN有很大的不同。

那么AdderNet的實(shí)際效果如何呢?

華為開源只用加法的神經(jīng)網(wǎng)絡(luò):實(shí)習(xí)生領(lǐng)銜打造,效果不輸傳統(tǒng)CNN

在CIFAR-10的圖像分類任務(wù)中,AdderNet相比當(dāng)初Bengio等人提出的加法神經(jīng)網(wǎng)絡(luò)BNN性能有大幅提升,并且已經(jīng)接近了傳統(tǒng)CNN的結(jié)果。

開源代碼

官方的AdderNet基于Python3和PyTorch。

先按照PyTorch的官方文檔準(zhǔn)備ImageNet數(shù)據(jù)集,運(yùn)行程序評(píng)估它在驗(yàn)證集上的效果:

  1. python test.py —data_dir 'path/to/imagenet_root/' 

AdderNet可以在ImageNet數(shù)據(jù)集上達(dá)到74.9%的Top-1準(zhǔn)確度和91.7%的Top-5準(zhǔn)確度。

或者將CIFAR-10數(shù)據(jù)集下載到本地,測(cè)試一下它在CIFAR-10上的效果

  1. python test.py —dataset cifar10 —model_dir models/ResNet20-AdderNet.pth —data_dir 'path/to/cifar10_root/' 

不過(guò)AdderNet仍需自己訓(xùn)練,官方表示將很快發(fā)布預(yù)訓(xùn)練模型。

現(xiàn)階段的AdderNet并非沒(méi)有缺陷,作者在項(xiàng)目主頁(yè)中說(shuō),由于AdderNet是用加法過(guò)濾器實(shí)現(xiàn)的,因此推理速度較慢,需要用CUDA編寫才能提高速度。

這與作者希望提高神經(jīng)網(wǎng)絡(luò)運(yùn)算速度的初衷還有一段距離。

但這篇論文的作者表示,今后還會(huì)繼續(xù)加法器神經(jīng)網(wǎng)絡(luò)的研究,發(fā)表更多的成果,讓我們一起期待這項(xiàng)研究取得新的進(jìn)展吧。

華為諾亞實(shí)驗(yàn)室實(shí)習(xí)生領(lǐng)銜打造

AdderNet這篇文章的一作名叫陳漢亭,畢業(yè)于同濟(jì)大學(xué)數(shù)學(xué)系,現(xiàn)在在北京大學(xué)信息科學(xué)技術(shù)學(xué)院攻讀博士學(xué)位,同時(shí)在華為諾亞方舟實(shí)驗(yàn)室實(shí)習(xí)。

在碩博連讀的前三年中,他已經(jīng)以一作身份發(fā)表了5篇論文,其中一篇《Data-Free Learning of Student Networks》被ICCV 2019收錄,另外它參與多篇論文還被NeurIPS、IJCAI、ICML等頂會(huì)收錄。

傳送門

源代碼:https://github.com/huawei-noah/AdderNet

論文地址:https://arxiv.org/abs/1912.13200

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2017-05-04 18:30:34

大數(shù)據(jù)卷積神經(jīng)網(wǎng)絡(luò)

2012-11-19 13:53:42

職場(chǎng)Google實(shí)習(xí)生

2010-10-12 11:06:07

招聘

2013-06-07 09:59:40

Google實(shí)習(xí)面試

2014-01-07 09:23:41

項(xiàng)目管理

2017-09-08 16:41:43

微軟

2020-07-27 08:26:03

數(shù)據(jù)庫(kù) SQL索引

2009-09-17 09:35:17

微軟實(shí)習(xí)生

2013-11-26 14:15:43

2020-09-18 11:40:44

神經(jīng)網(wǎng)絡(luò)人工智能PyTorch

2012-11-07 17:05:41

Google實(shí)習(xí)生

2009-03-13 08:58:04

AOL裁員實(shí)習(xí)

2011-12-07 20:37:42

iOSAndroid谷歌

2015-04-14 15:05:35

Web前端開發(fā)騰訊暑期實(shí)習(xí)生

2024-01-09 15:51:56

Rust開發(fā)Trait

2021-05-20 19:56:08

泄露密碼數(shù)據(jù)泄露網(wǎng)絡(luò)攻擊

2020-04-20 13:45:32

神經(jīng)網(wǎng)絡(luò)模型代碼

2016-12-20 09:55:52

卷積神經(jīng)網(wǎng)絡(luò)無(wú)人駕駛

2013-02-20 10:40:21

實(shí)習(xí)生科技公司谷歌

2021-06-22 09:46:52

神經(jīng)網(wǎng)絡(luò)人工智能深度學(xué)習(xí)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)