自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌大腦最新研究:AutoML方式自動學習Dropout模式

新聞 深度學習
深度神經(jīng)網(wǎng)絡(luò)往往存在過擬合的問題,需要Dropout、權(quán)重衰減這樣的正則化方法的加持。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

深度神經(jīng)網(wǎng)絡(luò)往往存在過擬合的問題,需要Dropout、權(quán)重衰減這樣的正則化方法的加持。

而最近的研究表明,如果對Dropout“剪掉”的神經(jīng)元的結(jié)構(gòu)進行利用,就能實現(xiàn)比隨機替換更好的效果。

問題是,實際應用中,針對不同的問題,利用結(jié)構(gòu)的方法需要人工設(shè)計,對Dropout的模式進行調(diào)整,泛化能力不足。

那么,是否能設(shè)計一種針對CNN、Transformer這樣的深度神經(jīng)網(wǎng)絡(luò),自動學習Dropout模式的方法?

現(xiàn)在,谷歌大神Quoc V. Le的團隊,就提出了一種名為AutoDropout的方法。

谷歌大腦<span><span><span><i style=最新研究:AutoML方式自動學習Dropout模式">

相關(guān)論文已經(jīng)入選AAAI 2021。

將設(shè)計Dropout模式的過程自動化

AutoDropout的主要目的,就是將設(shè)計針對專門場景的Dropout模式這件事自動化。

研究人員為此設(shè)計了一個新的結(jié)構(gòu)化Dropout模式的搜索空間。這個搜索空間囊括了許多現(xiàn)有的Dropout模式。

不妨先以CNN為例,來看一下該方法是如何實現(xiàn)的。

CNN中的Dropout模式搜索空間

在CNN中,搜索空間的基本模式是一個連續(xù)的矩形,矩形經(jīng)過平鋪,就會產(chǎn)生一個Dropout模式。

定義矩形的超參數(shù),是高度和寬度;而定義平鋪的超參數(shù),是步幅和重復次數(shù)。

谷歌大腦<span><span><span><i style=最新研究:AutoML方式自動學習Dropout模式">

除了對矩形進行平鋪之外,還需要將兩個幾何變換引入搜索空間:圍繞空間中心旋轉(zhuǎn),沿著每個空間維度進行剪切。

在得到dropout模式之后,研究人員將其應用于批量歸一化層的輸出——根據(jù)研究人員的經(jīng)驗,在網(wǎng)絡(luò)的其他地方進行應用,往往會導致搜索過程中訓練的不穩(wěn)定。

如果CNN中存在殘差連接,控制器則會進一步判斷,是否把dropout模式應用到殘差分支中。

谷歌大腦<span><span><span><i style=最新研究:AutoML方式自動學習Dropout模式">

控制器模型和搜索算法

AutoDropout的控制器是通過強化學習來訓練的。

谷歌大腦<span><span><span><i style=最新研究:AutoML方式自動學習Dropout模式">

控制器實際上是一個Transformer網(wǎng)絡(luò)。該網(wǎng)絡(luò)生成token以描述Dropout模式的配置。

如下圖所示,對于CNN中的每一層,都需要8個token來創(chuàng)建Dropout模式。

谷歌大腦<span><span><span><i style=最新研究:AutoML方式自動學習Dropout模式">

不過,這樣搜索算法可能需要花費大量的時間進行訓練,為此,研究人員也進行了并行性方面的改善工作。

谷歌大腦<span><span><span><i style=最新研究:AutoML方式自動學習Dropout模式">

Transformer中的Dropout模式搜索空間

這樣的方法同樣適用于Transformer。

谷歌大腦<span><span><span><i style=最新研究:AutoML方式自動學習Dropout模式">

與CNN中最大的不同在于,搜索空間中的dropout模式可以靈活地應用于Transformer層的多個子層,比如query、key、value、softmax、輸出投影和殘差等。

因此,研究人員針對每一個子層,各自應用了獨立的dropout模式。

谷歌大腦<span><span><span><i style=最新研究:AutoML方式自動學習Dropout模式">

實驗結(jié)果

為了驗證AutoDropout的效果,研究人員分別在CNN和Transformer模型中應用了AutoDropout。

對于CNN,主要應用在有監(jiān)督圖像分類任務(wù)和半監(jiān)督圖像分類任務(wù)。

對于Transformer,主要考慮語言模型和機器翻譯。

谷歌大腦<span><span><span><i style=最新研究:AutoML方式自動學習Dropout模式">
谷歌大腦<span><span><span><i style=最新研究:AutoML方式自動學習Dropout模式">

可以看到,在CIFAR-10和ImageNet上,AutoDropout都有效改善了SOTA模型的結(jié)果,并且優(yōu)于DropBlock等需要人工介入的方法。

而與使用Variational Dropout方法訓練的Transformer-XL模型相比,AutoDropout同樣帶來了更好的表現(xiàn)。

谷歌大腦<span><span><span><i style=最新研究:AutoML方式自動學習Dropout模式">

不過,研究人員也提到,AutoDropout的缺點是搜索成本很高。

有關(guān)作者

本文有兩位作者。

Hieu Pham,谷歌大腦和卡內(nèi)基梅隆大學共同培養(yǎng)的博士生,本科畢業(yè)于斯坦福大學。

[[374972]]最新研究:AutoML方式自動學習Dropout模式">

另一位作者是Quoc V. Le大佬。他是吳恩達的學生,Google Brain的創(chuàng)立者之一,也是谷歌AutoML項目的幕后英雄之一。

[[374973]]最新研究:AutoML方式自動學習Dropout模式">

傳送門

論文地址:
https://arxiv.org/abs/2101.01761

 

 

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2021-10-11 09:51:38

谷歌人工智能強化學習

2021-02-21 14:08:15

谷歌Android開發(fā)者

2021-06-29 15:33:28

谷歌Transformer模型

2017-03-01 19:58:00

深度學習TensorFlow

2022-04-11 15:34:29

機器學習AutoML開源

2016-12-02 17:46:56

機器學習眼疾谷歌

2021-05-06 15:55:01

谷歌Android開發(fā)

2018-01-18 09:00:01

谷歌AI代碼

2017-10-17 14:35:50

谷歌

2021-04-05 14:25:02

谷歌黑客網(wǎng)絡(luò)安全

2019-08-07 13:04:22

谷歌AI果蠅大腦

2017-03-20 15:23:46

人工智能連續(xù)學習神經(jīng)網(wǎng)絡(luò)

2012-08-30 10:29:42

智能手機平板電腦

2021-01-08 15:41:43

谷歌研究技術(shù)

2020-01-16 15:57:36

AI 數(shù)據(jù)人工智能

2023-06-19 10:32:49

持續(xù)學習

2014-07-21 09:18:26

谷歌Google Brai

2020-01-23 15:19:26

谷歌Android開發(fā)者

2023-07-25 13:59:29

谷歌論文

2023-05-15 16:10:00

人工智能ChatGPT
點贊
收藏

51CTO技術(shù)棧公眾號