自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

LSTM之父再稱ResNet、GAN等網(wǎng)絡都有他的功勞,網(wǎng)友:自負>引用數(shù)

新聞
作為21世紀被引用次數(shù)最多的神經(jīng)網(wǎng)絡,Jürgen說它引用了他們的Highway Net、然后把它做成了另一個版本。

 [[423032]]

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

 “現(xiàn)在引用最多的幾個神經(jīng)網(wǎng)絡都是建立在我的實驗室成果之上的!”

能說出此話的不是別人,正是在深度學習領域作出了巨大貢獻的LSTM之父——Jürgen Schmidhube

但這也不是他第一次為“自己的開創(chuàng)性工作沒得到足夠的尊重”而公開發(fā)聲。

LSTM之父再稱ResNet、GAN等網(wǎng)絡都有他的功勞,網(wǎng)友:自負>引用數(shù)

在這篇“直抒胸臆”的推文里,他還專門鏈出了個博客,里面歷數(shù)了他和他的團隊在LSTM、ResNet、AlexNet和VGG、GAN以及Transformer變體——這五個赫赫有名的神經(jīng)網(wǎng)絡上的早期貢獻。

來看看他是怎么說的。

“五大神經(jīng)網(wǎng)絡都是建立在我的實驗室成果之上”

首先是LSTM (Long Short-Term Memory)。這是Jürgen和他的學生們在1997年提出的一種新的RNN,解決了神經(jīng)網(wǎng)絡長短期記憶的難題。

根據(jù)谷歌學術,這是20世紀被引用次數(shù)最多的神經(jīng)網(wǎng)絡。

現(xiàn)在已經(jīng)“滲透”進醫(yī)療保健、學習機器人(learning robot)、游戲、語音處理、機器翻譯等領域,每天被無數(shù)人使用數(shù)十億次。

其厲害之處不用多說,大家對Jürgen的這項成就也沒啥異議。主要看另外四個

ResNet

作為21世紀被引用次數(shù)最多的神經(jīng)網(wǎng)絡,Jürgen說它引用了他們的Highway Net、然后把它做成了另一個版本。

Highway Net,是他的學生們發(fā)明的第一個具有100多層的真正的深度前饋神經(jīng)網(wǎng)絡。

它用跳層連接解決了非常深度的神經(jīng)網(wǎng)絡的訓練,其性能也與ImageNet上的ResNet差不多。

這倆的爭議很多人都有分析過,雖然兩者都用了跳層連接技術,但選擇的機制不同;多數(shù)人認為ResNet應該只是受到了Highway Net的啟發(fā)。

但Jürgen不這么認為,他還專門強調(diào)了一下,Highway Net也是基于LSTM的思想才得以解決深度訓練的問題的。意思是ResNet“一脈相承”了他兩個成果。

[[423033]]

AlexNet和VGG Net

對于這倆在引用次數(shù)排第二、第三的神經(jīng)網(wǎng)絡,Jürgen表示:都類似DanNet——他們在2011年提出的第一個贏得圖像識別比賽的深度卷積神經(jīng)網(wǎng)絡,并且DanNet在AlexNet出現(xiàn)之前贏了4場。

因為2012年出生的AlexNet論文中引用了DanNet,用到了Jürgen團隊提出的摒棄無監(jiān)督預訓練為純監(jiān)督學習的DNN思想。

而VGG則是同樣采用了DanNet使用小卷積濾波器增加神經(jīng)網(wǎng)絡深度的track。

GAN

博文中寫道,大名鼎鼎的GAN也是Jürgen本人在1990年提出的Adversarial Curiosity原則的應用,它們都由兩個神經(jīng)網(wǎng)絡進行“對抗”(Adversarial Curiosity則是一個叫生成器,一個叫預測器)。

“炮轟”GAN可不是第一次了,Jürgen甚至還公開和GAN的提出者battle過,但很多學者分析,GAN并不能視為Adversarial Curiosity的一個簡單變種。

Transformer

最后一個是Transformer,如今風靡的Transformer又和Jürgen有什么關系呢?

Jürgen說,Transformer的變體-線性Transformer,在形式上相當與他于1991年提出的快速權重存儲系統(tǒng)(Fast Weight Programmers)的延伸(除了標準化部分)。

真的是這樣的嗎?

不得不說,Jürgen的某些思想非常超前,但其實上面的這些內(nèi)容都不是Jürgen第一次公開說明了。

一如既往,網(wǎng)友們的回應褒貶不一。

追捧他的表示:

“這是Schmidhuber的世界,我們凡人只是居住在其中!”

LSTM之父再稱ResNet、GAN等網(wǎng)絡都有他的功勞,網(wǎng)友:自負>引用數(shù)

“Schmidhuber is all you need.”

LSTM之父再稱ResNet、GAN等網(wǎng)絡都有他的功勞,網(wǎng)友:自負>引用數(shù)

但更多的人都是在承認他巨大貢獻的同時,指出他過于美化自己的貢獻,想把這二三十年所有相關的進步都歸功于他。

LSTM之父再稱ResNet、GAN等網(wǎng)絡都有他的功勞,網(wǎng)友:自負>引用數(shù)

就像博文中提到的ResNets,許多人的觀點認為它只是HighwayNets中一個非常微不足道的延伸;

而Transformer則是在發(fā)展壯大了三年之后才被Jürgen聯(lián)系到了Fast Weight Programmers身上;(如果真的那么相關,怎么一開始不指出來)

LSTM之父再稱ResNet、GAN等網(wǎng)絡都有他的功勞,網(wǎng)友:自負>引用數(shù)

上面提到的種種幾乎和他的團隊成就沒啥關系,沒有他的那些論文,那些模型照樣會被提出來。

而他最重要的兩個貢獻是:用LSTM思想解決RNN訓練難題以及梯度消失難題的理論分析。但這都還主要是他的學生Hochreiter領導的。

LSTM之父再稱ResNet、GAN等網(wǎng)絡都有他的功勞,網(wǎng)友:自負>引用數(shù)

因此有人覺得Jürgen這種行為簡直就像個孩子一直在說“看我,我是最棒的”一樣:

LSTM之父再稱ResNet、GAN等網(wǎng)絡都有他的功勞,網(wǎng)友:自負>引用數(shù)

甚有直言:“他的自負大于他的引用次數(shù)”。

LSTM之父再稱ResNet、GAN等網(wǎng)絡都有他的功勞,網(wǎng)友:自負>引用數(shù)

你覺得呢?

 

 

責任編輯:張燕妮 來源: 量子位
相關推薦

2021-09-23 15:28:50

計算機圖靈 技術

2023-07-26 15:15:53

AI

2021-03-16 15:01:31

Python 開發(fā)工具

2023-08-06 12:48:41

2012-04-23 09:50:11

寬帶提速寬帶

2022-02-22 14:36:52

編程Swift程序員

2009-08-04 10:32:13

Android

2024-10-10 13:13:18

2012-04-08 14:25:47

蘋果New iPad

2010-06-10 12:19:07

UML2.0

2012-05-07 15:05:29

網(wǎng)友

2022-05-09 14:41:45

蘋果離職

2015-10-23 08:51:18

應用暗知識發(fā)現(xiàn)

2013-11-18 09:42:27

鮑爾默微軟CEO

2011-11-08 14:24:43

2023-12-18 08:57:22

GAN網(wǎng)絡

2010-06-11 09:34:04

Linux操作系統(tǒng)HP

2009-02-23 08:56:07

喬布斯蘋果電腦

2009-06-30 16:34:20

Java應用商店

2023-04-04 10:04:44

點贊
收藏

51CTO技術棧公眾號