自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

“深度學(xué)習(xí)不是學(xué)習(xí)”:英特爾高管與AI大牛LeCun展開互懟

新聞 深度學(xué)習(xí)
有人認為,神經(jīng)形態(tài)計算就像量子計算一樣處在起步階段,所以沒什么可批判的。也有人覺得深度學(xué)習(xí)已經(jīng)在許多領(lǐng)域內(nèi)取得了成果,量子計算和神經(jīng)形態(tài)計算還差得遠,雖然技術(shù)很尤其,但兩者都沒有被證實,而且都沒有編程模型。

 本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。 

“深度學(xué)習(xí)不是真正的學(xué)習(xí)。”

英特爾神經(jīng)形態(tài)計算實驗室主任Mike Davies在國際固態(tài)電路會議(ISSCC)上將深度學(xué)習(xí)批判了一番。

[[258100]]

Davies說,深度學(xué)習(xí)跟大多數(shù)人印象中的并不一樣,它只是一種優(yōu)化程序,實際上并不是真正在“學(xué)習(xí)”。

受到攻擊的重災(zāi)區(qū),還是深度學(xué)習(xí)中的反向傳播算法。

他說,反向傳播與大腦無關(guān),而只是在深度學(xué)習(xí)計算機程序中用來優(yōu)化人工神經(jīng)元響應(yīng)的一種數(shù)學(xué)技術(shù)。

自然的反向傳播例子,并不存在。

雖然他承認深度學(xué)習(xí)現(xiàn)在非常有效,但他也堅定地強調(diào)里,大腦才是真正智能計算的范例。

Davies死死抓住不放的“不像大腦”這個問題,也正是深度學(xué)習(xí)教父Hinton一直重視的。

不過對于這次批判本身,美國媒體ZDNet認為,他主要的攻擊目標其實是Yann LeCun。

[[258101]]

深度學(xué)習(xí)vs.神經(jīng)形態(tài)計算之爭

為何攻擊LeCun?

就在周一,這位AI大牛在同一個學(xué)術(shù)會議上發(fā)言時,順便批判了Davies在搞的神經(jīng)形態(tài)計算。

神經(jīng)形態(tài)計算是英特爾布局的一個重要新興方向,在這個領(lǐng)域,他們推出了芯片樣品Loihi。英特爾說,這種芯片可以實現(xiàn)自主學(xué)習(xí),而且能耗只有傳統(tǒng)芯片的千分之一。

而Davies就是神經(jīng)形態(tài)計算實驗室的負責人,主管著英特爾在這一領(lǐng)域的探索。他參加ISSCC會議,也是來講Loihi的。

“深度學(xué)習(xí)不是學(xué)習(xí)”:英特爾高管與AI大牛LeCun展開互懟

Loihi用了一種名叫尖峰神經(jīng)元(spiking neurons)的技術(shù),這類神經(jīng)元只有在輸入樣本后才能被激活。

神經(jīng)形態(tài)計算倡導(dǎo)者們認為,這種方法更好地模擬了大腦的運行機制,比如說信號傳遞的過程就像大腦一樣經(jīng)濟。

在LeCun看來,神經(jīng)形態(tài)計算領(lǐng)域沒有產(chǎn)生有實際效果的算法,為何要為一種沒用的算法構(gòu)建芯片?

不過Davies直接表達了反對,他說,神經(jīng)形態(tài)計算產(chǎn)生的算法是有效的,LeCun忽視了神經(jīng)形態(tài)計算的優(yōu)勢。

Davies說:“LeCun反對尖峰神經(jīng)元,但他卻說我們需要解決硬件中的稀疏性,尖峰神經(jīng)元就是干這個的啊。”

他說,這太諷刺了。

為了駁斥對尖峰神經(jīng)元的批評,Davies引用了安大略滑鐵盧一個名叫應(yīng)用腦科學(xué)(Applied Brain Science)的機構(gòu)的數(shù)據(jù),比較了一種語音檢測算法在不同芯片上的表現(xiàn)。

這個算法被要求識別“aloha”這個詞,并且拒絕無意義詞語,這家機構(gòu)在CPU、GPU和Loihi芯片上運行了這一算法。

“深度學(xué)習(xí)不是學(xué)習(xí)”:英特爾高管與AI大牛LeCun展開互懟

這份數(shù)據(jù)顯示,Loihi在常規(guī)處理器上運行常規(guī)神經(jīng)網(wǎng)絡(luò)性能,特別是在計算速度方面,并且能源效率更高,不過精確度會低一些。

在另一個例子中,Davies說Loihi執(zhí)行的基本分類器任務(wù)的速度是傳統(tǒng)的基于GPU的深度學(xué)習(xí)網(wǎng)絡(luò)的40倍,準確度提高了8%。

因此,Davies認為Loihi效率高得多,可以運行規(guī)模越來越大的網(wǎng)絡(luò),他認為,機器人控制將會是Loihi這類神經(jīng)形態(tài)芯片的殺手級應(yīng)用。

Davies還從LeCun的批評挑出了他認同的一點:尖峰神經(jīng)元的硬件非常充足,提供了很多工具來映射有趣的算法。

針對這句話后邊隱含的“但是軟件算法層面不行”,Davies說,他的團隊當前目標就是在算法上取得進展,算法確實拖了這個領(lǐng)域的后腿。

[[258102]]

在Twitter上,也有人隔空參與了這場辯論。

有人認為,神經(jīng)形態(tài)計算就像量子計算一樣處在起步階段,所以沒什么可批判的。

也有人覺得深度學(xué)習(xí)已經(jīng)在許多領(lǐng)域內(nèi)取得了成果,量子計算和神經(jīng)形態(tài)計算還差得遠,雖然技術(shù)很尤其,但兩者都沒有被證實,而且都沒有編程模型。

其實,這場LeCun和Davies的爭斗,除了學(xué)術(shù)方面之外,另外不得不考慮的一點就是Facebook和英特爾的商業(yè)競爭。

周一,LeCun表示Facebook內(nèi)部正在開發(fā)AI芯片,一旦Facebook自己的芯片研發(fā)成功,那就不需要使用英特爾的芯片了,甚至還會搶走英特爾的客戶。

看完這場隔空口水戰(zhàn)的來龍去脈,我們把目光收回到Davies指責的核心:反向傳播。

訓(xùn)練深度學(xué)習(xí)模型離不開它,但對它的質(zhì)疑也接連不斷。

反向傳播到底行不行?

反向傳播,生于1986,出自David Plaut、Steven Nowlan、Geoffrey Hinton在卡耐基梅隆大學(xué)(CMU)時發(fā)表的Nature論文:Experiments on Learning by Back Propagation。

“深度學(xué)習(xí)不是學(xué)習(xí)”:英特爾高管與AI大牛LeCun展開互懟

 www.cs.toronto.edu/~fritz/absps/bptr.pdf

31年后,這一概念已經(jīng)隨著深度學(xué)習(xí)廣泛應(yīng)用到了各種領(lǐng)域,也遇到了很大的一次危機。

它的的提出者之一、“深度學(xué)習(xí)之父”Hinton在多倫多舉辦的一場會議上公開提出了質(zhì)疑。

他說,他對反向傳播“深感懷疑”,甚至想“全部拋掉,重頭再來”。因為,大腦的運作機制并不是這樣的。

“不像大腦”這個問題,Hinton一直非常重視,他曾在MIT的一次講座上說,他相信正是這些不像大腦的東西,導(dǎo)致人工神經(jīng)網(wǎng)絡(luò)的效果不夠好。

在Hinton發(fā)出自我質(zhì)疑之后,反向傳播更成了討論的熱點,甚至被稱為“今日AI的阿喀琉斯之踵”。

“深度學(xué)習(xí)不是學(xué)習(xí)”:英特爾高管與AI大牛LeCun展開互懟

不過現(xiàn)在,可能Hinton應(yīng)該自己的作品稍微滿意一點了。

哈佛大學(xué)臨床神經(jīng)科學(xué)學(xué)院的兩位科學(xué)家在一期Cell旗下期刊《認知科學(xué)趨勢》(Trends in Cognitive Sciences)上發(fā)表綜述,總結(jié)了人工神經(jīng)網(wǎng)絡(luò)的反向傳播算法,在大腦中是怎樣體現(xiàn)的。

這篇綜述題為“大腦中誤差反向傳播的理論”(Theories of Error Back-Propagation in the Brain),綜合了近來的一批理論研究,分析幾類生物反向傳播模型。

“深度學(xué)習(xí)不是學(xué)習(xí)”:英特爾高管與AI大牛LeCun展開互懟

作者說,這些理論研究“否定了過去30年來普遍接受的教條,即:誤差反向傳播算法太復(fù)雜,大腦無法實現(xiàn)”。

根據(jù)這些研究,腦神經(jīng)回路中類似反向傳播的機制,是基于突觸前和突觸后神經(jīng)元活動的簡單突觸可塑性規(guī)則。

論文:https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(19)30012-9

One more thing…

雖然Davies和LeCun在一場學(xué)術(shù)會議上隔空吵得很熱鬧,但深度學(xué)習(xí)和神經(jīng)形態(tài)計算并非勢不兩立。

有不少學(xué)者在研究如何把神經(jīng)形態(tài)芯片和深度學(xué)習(xí)結(jié)合起來。

比如:

美國橡樹嶺國家實驗室、加州理工大學(xué)和田納西大學(xué)的學(xué)者們,就曾經(jīng)研究過如何在高性能計算設(shè)備、神經(jīng)形態(tài)芯片和量子計算機上運行復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)。這是他們的研究:

A Study of Complex Deep Learning Networks on High Performance, Neuromorphic, and Quantum Computers

地址:https://arxiv.org/abs/1703.05364

而奧地利格拉茨技術(shù)大學(xué)的Guillaume Bellec、Franz Scherr等人,最近在arXiv上公開了一項研究,提出了反向傳播的一種替代方案。他們的研究題為:

Biologically inspired alternatives to backpropagation through time for learning in recurrent neural nets

地址:https://arxiv.org/abs/1901.09049

供感興趣的朋友們深入探索~

 

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2011-05-23 09:30:03

英特爾ARM

2009-07-24 14:00:48

2009-08-01 08:48:59

Windows 7部署速度企業(yè)部署

2017-01-20 13:58:31

英特爾GPUCPU

2017-07-21 13:02:30

英特爾Cloudera

2009-03-24 08:31:14

2011-04-13 12:43:01

萬利達英特爾學(xué)習(xí)本

2021-12-06 12:49:14

汽車智能技術(shù)

2023-11-20 13:06:52

2010-04-12 09:25:29

英特爾安騰處理器

2021-01-05 15:51:27

Linus英特爾ECC

2009-02-12 09:09:53

華為英特爾WiMAX

2016-07-28 10:03:03

Intel

2011-05-24 11:09:50

Sun英特爾微軟

2014-04-03 14:23:02

英特爾統(tǒng)一固件管理套件

2013-11-22 15:18:27

2010-04-15 04:00:17

英特爾學(xué)習(xí)本筆記本
點贊
收藏

51CTO技術(shù)棧公眾號