自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

深度學(xué)習(xí)性能提升的訣竅

大數(shù)據(jù) 數(shù)據(jù)分析
在今天的文章中我會列舉一些我認(rèn)為能夠提升性能的方法, 這些想法不僅可以用于深度學(xué)習(xí),事實上可以用在任何機(jī)器學(xué)習(xí)的算法上。

[[174383]]

你是如何提升深度學(xué)習(xí)模型的效果? 這是我經(jīng)常被問到的一個問題。有時候也會換一種問法:我該如何提高模型的準(zhǔn)確率呢? ……或者反過來問:如果我的網(wǎng)絡(luò)模型效果不好,我該怎么辦?通常我的回答是“具體原因我不清楚,但我有一些想法可以試試”。然后我會列舉一些我認(rèn)為能夠提升性能的方法。為了避免重復(fù)羅列這些內(nèi)容,我打算在本文中把它們都寫出來。 這些想法不僅可以用于深度學(xué)習(xí),事實上可以用在任何機(jī)器學(xué)習(xí)的算法上。那么如何提升深度學(xué)習(xí)的性能?

提升算法性能的想法

這個列表并不完整,卻是很好的出發(fā)點。我的目的是給大家拋出一些想法供大家嘗試,或許有那么一兩個有效的方法。往往只需要嘗試一個想法就能得到提升。我把這個列表劃分為四塊:

  • 從數(shù)據(jù)上提升性能
  • 從算法上提升性能
  • 從算法調(diào)優(yōu)上提升性能
  • 從模型融合上提升性能

性能提升的力度按上表的順序從上到下依次遞減。舉個例子,新的建模方法或者更多的數(shù)據(jù)帶來的效果提升往往好于調(diào)出最優(yōu)的參數(shù)。但這并不是絕對的,只是大多數(shù)情況下如此。我在文章中添加了不少博客教程和相關(guān)的經(jīng)典神經(jīng)網(wǎng)絡(luò)問題。

其中有一些想法只是針對人工神經(jīng)網(wǎng)絡(luò),但大多數(shù)想法都是通用性的。你可以將它們與其它技術(shù)結(jié)合起來使用。我們開始吧。

1.從數(shù)據(jù)上提升性能

調(diào)整訓(xùn)練數(shù)據(jù)或是問題的抽象定義方法可能會帶來巨大的效果改善。甚至是最顯著的改善。

下面是概覽:

1. 收集更多的數(shù)據(jù)

2. 產(chǎn)生更多的數(shù)據(jù)

3. 對數(shù)據(jù)做縮放

4. 對數(shù)據(jù)做變換

5. 特征選擇

6. 重新定義問題

1)收集更多的數(shù)據(jù)

你還能收集到更多的訓(xùn)練數(shù)據(jù)嗎?你的模型的質(zhì)量往往取決于你的訓(xùn)練數(shù)據(jù)的質(zhì)量。你需要確保使用的數(shù)據(jù)是針對問題最有效的數(shù)據(jù)。你還希望數(shù)據(jù)盡可能多。深度學(xué)習(xí)和其它現(xiàn)代的非線性機(jī)器學(xué)習(xí)模型在大數(shù)據(jù)集上的效果更好,尤其是深度學(xué)習(xí)。這也是深度學(xué)習(xí)方法令人興奮的主要原因之一。請看下面的圖片:

幻燈片來自Andrew Ng

什么是深度學(xué)習(xí)?

不總是數(shù)據(jù)閱讀效果越好,多數(shù)情況下如此。如果讓我選擇,我會選擇要更多的數(shù)據(jù)。

相關(guān)閱讀:數(shù)據(jù)集壓倒算法

2)產(chǎn)生更多的數(shù)據(jù)

深度學(xué)習(xí)算法往往在數(shù)據(jù)量大的時候效果好。我們在上一節(jié)已經(jīng)提到過這一點。如果由于某些原因你得不到更多的數(shù)據(jù),也可以制造一些數(shù)據(jù)。

  • 如果你的數(shù)據(jù)是數(shù)值型的向量,那么隨機(jī)生成已有向量的變形向量。
  • 如果你的數(shù)據(jù)是圖像,用已有的圖像隨機(jī)生成相似圖像。
  • 如果你的數(shù)據(jù)是文本,做法你懂得……

這類做法通常被稱為數(shù)據(jù)擴(kuò)展或是數(shù)據(jù)生成。你可以使用生成模型,也可以用一些簡單的小技巧。舉個例子,若是用圖像數(shù)據(jù),簡單地隨機(jī)選擇和平移已有的圖像就能取得很大的提升。它能提升模型的泛化能力,如果新的數(shù)據(jù)中包含這類變換就能得到很好的處理。有時候是往數(shù)據(jù)中增加噪聲,這相當(dāng)于是一種規(guī)則方法,避免過擬合訓(xùn)練數(shù)據(jù)。

相關(guān)閱讀:1)深度學(xué)習(xí)中的圖像數(shù)據(jù)擴(kuò)充 2)訓(xùn)練含有噪聲的數(shù)據(jù)

3)對數(shù)據(jù)做縮放

此方法簡單有效。使用神經(jīng)網(wǎng)絡(luò)模型的一條經(jīng)驗法寶就是:將數(shù)據(jù)縮放到激活函數(shù)的閾值范圍。

如果你使用sigmoid激活函數(shù),將數(shù)據(jù)縮放到0~1之間。如果選用tanh激活函數(shù),將值域控制在-1~1之間。輸入、輸出數(shù)據(jù)都經(jīng)過同樣的變換。比如,如果在輸出層有一個sigmoid函數(shù)將輸出值轉(zhuǎn)換為二值數(shù)據(jù),則將輸出的y歸一化為二進(jìn)制。如果選用的是softmax函數(shù),對y進(jìn)行歸一化還是有效的。我還建議你將訓(xùn)練數(shù)據(jù)擴(kuò)展生成多個不同的版本:

  • 歸一化到0 ~ 1
  • 歸一化到-1 ~ 1
  • 標(biāo)準(zhǔn)化

然后在每個數(shù)據(jù)集上測試模型的性能,選用最好的一組生成數(shù)據(jù)。如果更換了激活函數(shù),最好重復(fù)做一次這個小實驗。

在模型中不適合計算大的數(shù)值。此外,還有許多其它方法來壓縮模型中的數(shù)據(jù),比如對權(quán)重和激活值做歸一化,我會在后面介紹這些技巧。

相關(guān)閱讀:1)我需要對輸入數(shù)據(jù)(列向量)做標(biāo)準(zhǔn)化嗎? 2)如何用Scikit-Learn準(zhǔn)備機(jī)器學(xué)習(xí)的輸入數(shù)據(jù)

4) 對數(shù)據(jù)做變換

與上一節(jié)的方法相關(guān),但是需要更多的工作量。你必須真正了解所用到的數(shù)據(jù)。數(shù)據(jù)可視化,然后挑出異常值。先猜測每一列數(shù)據(jù)的分布

  • 這一列數(shù)據(jù)是不是傾斜的高斯分布,若是如此,嘗試用Box-Cox方法糾正傾斜
  • 這一列數(shù)據(jù)是不是指數(shù)分布,若是如此,則進(jìn)行對數(shù)變換
  • 這一列數(shù)據(jù)是不是存在某些特性,但是難以直觀地發(fā)現(xiàn),嘗試一下對數(shù)據(jù)平方或者開方
  • 是否可以將特征離散化,以便更好地強(qiáng)調(diào)一些特征

憑你的直覺,嘗試幾種方法

  • 是否可以用投影的方法對數(shù)據(jù)預(yù)處理,比如PCA?
  • 是否可以將多個屬性合并為單個值?
  • 是否可以發(fā)掘某個新的屬性,用布爾值表示?
  • 是否可以在時間尺度或是其它維度上有些新發(fā)現(xiàn)?

神經(jīng)網(wǎng)絡(luò)有特征學(xué)習(xí)的功能,它們能夠完成這些事情。不過你若是可以將問題的結(jié)構(gòu)更好地呈現(xiàn)出來,網(wǎng)絡(luò)模型學(xué)習(xí)的速度就會更快。在訓(xùn)練集上快速嘗試各種變換方法,看看哪些方法有些,而哪些不起作用。

相關(guān)閱讀:1)如何定義你的機(jī)器學(xué)習(xí)問題 2)特征挖掘工程,如何構(gòu)造特征以及如何提升 3)如何用Scikit-Learn準(zhǔn)備機(jī)器學(xué)習(xí)的輸入數(shù)據(jù)

5) 特征選擇

神經(jīng)網(wǎng)絡(luò)受不相關(guān)數(shù)據(jù)的影響很小。它們會對此賦予一個趨近于0的權(quán)重,幾乎忽略此特征對預(yù)測值的貢獻(xiàn)。你是否可以移除訓(xùn)練數(shù)據(jù)的某些屬性呢?我們有許多的特征選擇方法和特征重要性方法來鑒別哪些特征可以保留,哪些特征需要移除。動手試一試,試一試所有的方法。如果你的時間充裕,我還是建議在相同的神經(jīng)網(wǎng)絡(luò)模型上選擇嘗試多個方法,看看它們的效果分別如何。

· 也許用更少的特征也能得到同樣的、甚至更好的效果。

· 也許所有的特征選擇方法都選擇拋棄同一部分特征屬性。那么就真應(yīng)該好好審視這些無用的特征。

· 也許選出的這部分特征給你帶來了新的啟發(fā),構(gòu)建出更多的新特征。

相關(guān)閱讀:1)特征選擇入門介紹 2)基于Python的機(jī)器學(xué)習(xí)中的特征選擇問題

6)問題重構(gòu)

在回到你問題的定義上來。你所收集到的這些觀測數(shù)據(jù)是描述問題的唯一途徑嗎?也許還有其它的途徑。也許其它途徑能更清晰地將問題的結(jié)構(gòu)暴露出來。我自己非常喜歡這種練習(xí),因為它強(qiáng)迫我們拓寬思路。很難做好。尤其是當(dāng)你已經(jīng)投入大量的時間、精力、金錢在現(xiàn)有的方法上。即使你列舉了3 ~ 5種不同的方式,至少你對最后所選用的方式有充足的信心。

  • 也許你可以將時間元素融入到一個窗口之中。
  • 也許你的分類問題可以轉(zhuǎn)化為回歸問題,反之亦然。也許可以把二值類型的輸出轉(zhuǎn)化為softmax的輸出
  • 也許你可以對子問題建模。

深入思考問題是一個好習(xí)慣,最好在選擇工具下手之前先完成上述步驟,以減少無效的精力投入。

無論如何,如果你正束手無策,這個簡單的連續(xù)能讓你思如泉涌。另外,你也不必拋棄前期的大量工作,詳情可以參見后面的章節(jié)。

相關(guān)閱讀:1) 如何定義機(jī)器學(xué)習(xí)問題

2. 從算法上提升性能

機(jī)器學(xué)習(xí)總是與算法相關(guān)。所有的理論和數(shù)學(xué)知識都在描述從數(shù)據(jù)中學(xué)習(xí)決策過程的不同方法(如果我們這里僅討論預(yù)測模型)。你選用深度學(xué)習(xí)來求解,它是不是最合適的技術(shù)呢?在這一節(jié)中,我們會簡單地聊一下算法的選擇,后續(xù)內(nèi)容會具體介紹如何提升深度學(xué)習(xí)的效果。

下面是概覽:

1. 算法的篩選

2. 從文獻(xiàn)中學(xué)習(xí)

3. 重采樣的方法

我們一條條展開。

1) 算法的篩選

你事先不可能知道哪種算法對你的問題效果最好。如果你已經(jīng)知道,你可能也就不需要機(jī)器學(xué)習(xí)了。你有哪些證據(jù)可以證明現(xiàn)在已經(jīng)采用的方法是最佳選擇呢?我們來想想這個難題。

當(dāng)在所有可能出現(xiàn)的問題上進(jìn)行效果評測時,沒有哪一項單獨的算法效果會好于其它算法。所有的算法都是平等的。這就是天下沒有免費的午餐理論的要點。

也許你選擇的算法并不是最適合你的問題?,F(xiàn)在,我們不指望解決所有的問題,但當(dāng)前的熱門算法也許并不適合你的數(shù)據(jù)集。我的建議是先收集證據(jù),先假設(shè)有其它的合適算法適用于你的問題。

篩選一些常用的算法,挑出其中適用的幾個。

  • 嘗試一些線性算法,比如邏輯回歸和線性判別分析
  • 嘗試一些樹模型,比如CART、隨機(jī)森林和梯度提升
  • 嘗試SVM和kNN等算法
  • 嘗試其它的神經(jīng)網(wǎng)絡(luò)模型,比如LVQ、MLP、CNN、LSTM等等

采納效果較好的幾種方法,然后精細(xì)調(diào)解參數(shù)和數(shù)據(jù)來進(jìn)一步提升效果。將你所選用的深度學(xué)習(xí)方法與上述這些方法比較,看看是否能擊敗他們?也許你可以放棄深度學(xué)習(xí)模型轉(zhuǎn)而選擇更簡單模型,訓(xùn)練的速度也會更快,而且模型易于理解。

相關(guān)閱讀:1)一種數(shù)據(jù)驅(qū)動的機(jī)器學(xué)習(xí)方法 2)面對機(jī)器學(xué)習(xí)問題為何需要篩選算法 3)用scikit-learn篩選機(jī)器學(xué)習(xí)的分類算法

2) 從文獻(xiàn)中學(xué)習(xí)

從文獻(xiàn)中“竊取”思路是一條捷徑。其它人是否已經(jīng)做過和你類似的問題,他們使用的是什么方法。閱讀論文、書籍、問答網(wǎng)站、教程以及Google給你提供的一切信息。記下所有的思路,然后沿著這些方向繼續(xù)探索。這并不是重復(fù)研究,這是幫助你發(fā)現(xiàn)新的思路。

優(yōu)先選擇已經(jīng)發(fā)表的論文

已經(jīng)有許許多多的聰明人寫下了很多有意思的事情。利用好這寶貴的資源吧。

相關(guān)閱讀:1)如何研究一種機(jī)器學(xué)習(xí)算法 2)Google學(xué)術(shù)

3) 重采樣的方法

你必須明白自己模型的效果如何。你估計的模型效果是否可靠呢?深度學(xué)習(xí)模型的訓(xùn)練速度很慢。

  • 這就意味著我們不能用標(biāo)準(zhǔn)的黃金法則來評判模型的效果,比如k折交叉驗證。
  • 也許你只是簡單地把數(shù)據(jù)分為訓(xùn)練集和測試集。如果是這樣,就需要保證切分后的數(shù)據(jù)分布保持不變。單變量統(tǒng)計和數(shù)據(jù)可視化是不錯的方法。
  • 也許你們可以擴(kuò)展硬件來提升效果。舉個例子,如果你有一個集群或是AWS的賬號,我們可以并行訓(xùn)練n個模型,然后選用它們的均值和方差來獲取更穩(wěn)定的效果。
  • 也許你可以選擇一部分?jǐn)?shù)據(jù)做交叉驗證(對于early stopping非常有效)。
  • 也許你可以完全獨立地保留一部分?jǐn)?shù)據(jù)用于模型的驗證。

另一方面,也可以讓數(shù)據(jù)集變得更小,采用更強(qiáng)的重采樣方法。

  • ·也許你會看到在采樣后的數(shù)據(jù)集上訓(xùn)練得到的模型效果與在全體數(shù)據(jù)集上訓(xùn)練得到的效果有很強(qiáng)的相關(guān)性。那么,你就可以用小數(shù)據(jù)集進(jìn)行模型的選擇,然后把最終選定的方法應(yīng)用于全體數(shù)據(jù)集上。
  • 也許你可以任意限制數(shù)據(jù)集的規(guī)模,采樣一部分?jǐn)?shù)據(jù),用它們完成所有的訓(xùn)練任務(wù)。

你必須對模型效果的預(yù)測有十足的把握。

相關(guān)閱讀:1)用Keras評估深度學(xué)習(xí)模型的效果 2)用重采樣的方法評估機(jī)器學(xué)習(xí)算法的效果

3. 從算法調(diào)優(yōu)上提升性能

你通過算法篩選往往總能找出一到兩個效果不錯的算法。但想要達(dá)到這些算法的最佳狀態(tài)需要耗費數(shù)日、數(shù)周甚至數(shù)月。

下面是一些想法,在調(diào)參時能有助于提升算法的性能。

1)模型可診斷性

2)權(quán)重的初始化

3)學(xué)習(xí)率

4)激活函數(shù)

5)網(wǎng)絡(luò)結(jié)構(gòu)

6)batch和epoch

7)正則項

8)優(yōu)化目標(biāo)

9)提早結(jié)束訓(xùn)練

你可能需要指定參數(shù)來多次(3-10次甚至更多)訓(xùn)練模型,以得到預(yù)計效果最好的一組參數(shù)。對每個參數(shù)都要不斷的嘗試。有一篇關(guān)于超參數(shù)最優(yōu)化的優(yōu)質(zhì)博客:如何用Keras網(wǎng)格搜索深度學(xué)習(xí)模型的超參數(shù)

1) 可診斷性

只有知道為何模型的性能不再有提升了,才能達(dá)到最好的效果。是因為模型過擬合呢,還是欠擬合呢?千萬牢記這個問題。千萬。

模型總是處于這兩種狀態(tài)之間,只是程度不同罷了。一種快速查看模型性能的方法就是每一步計算模型在訓(xùn)練集和驗證集上的表現(xiàn),將結(jié)果繪制成圖表。

在訓(xùn)練集和驗證集上測試模型的準(zhǔn)確率

  • 如果訓(xùn)練集的效果好于驗證集,說明可能存在過擬合的現(xiàn)象,試一試增加正則項。
  • 如果訓(xùn)練集和驗證集的準(zhǔn)確率都很低,說明可能存在欠擬合,你可以繼續(xù)提升模型的能力,延長訓(xùn)練步驟。
  • 如果訓(xùn)練集和驗證集的曲線有一個焦點,可能需要用到early stopping的技巧了。經(jīng)常繪制類似的圖表,深入研究并比較不同的方法,以提高模型的性能。

這些圖表也許是你最有價值的診斷工具。

另一種有效的診斷方法是研究模型正確預(yù)測或是錯誤預(yù)測的樣本。在某些場景下,這種方法能給你提供一些思路。

  • 也許你需要更多的難預(yù)測的樣本數(shù)據(jù)。
  • 也許你可以從訓(xùn)練集中刪去那些容易被學(xué)習(xí)的樣本。
  • 也許你可以有針對性地對不同類型的輸入數(shù)據(jù)訓(xùn)練不同的模型

相關(guān)閱讀:1)用Keras展現(xiàn)深度學(xué)習(xí)模型的訓(xùn)練過程 2)機(jī)器學(xué)習(xí)算法的過擬合和欠擬合

2) 權(quán)重的初始化

有一條經(jīng)驗規(guī)則:用小的隨機(jī)數(shù)初始化權(quán)重。事實上,這可能已經(jīng)足夠了。但是這是你網(wǎng)絡(luò)模型的最佳選擇嗎?不同的激活函數(shù)也可以有不同的應(yīng)對策略,但我不記得在實踐中存在什么顯著的差異。保持你的模型結(jié)構(gòu)不變,試一試不同的初始化策略。記住,權(quán)重值就是你模型需要訓(xùn)練的參數(shù)。幾組不同的權(quán)重值都能取得不錯的效果,但你想得到更好的效果。

  • 嘗試所有的初始化方法,找出最好的一組初始化值。
  • 試一試用非監(jiān)督式方法預(yù)學(xué)習(xí),比如自動編碼機(jī)。
  • 嘗試用一組現(xiàn)有的模型權(quán)重參數(shù),然后重新訓(xùn)練輸入和輸出層(遷移學(xué)習(xí))。

記住,修改權(quán)重初始化值的方法與修改激活函數(shù)或者目標(biāo)函數(shù)的效果相當(dāng)。

相關(guān)閱讀:1)深度網(wǎng)絡(luò)模型的初始化

3) 學(xué)習(xí)率

調(diào)節(jié)學(xué)習(xí)率也能帶來效果提升。這里也有一些探索的思路:

  • 嘗試非常大、非常小的學(xué)習(xí)率。
  • 根據(jù)參考文獻(xiàn),在常規(guī)值附近用網(wǎng)格化搜索。
  • 嘗試使用逐步減小的學(xué)習(xí)率。
  • 嘗試每隔固定訓(xùn)練步驟衰減的學(xué)習(xí)率。
  • 嘗試增加一個向量值,然后用網(wǎng)格搜索。

大的網(wǎng)絡(luò)模型需要更多的訓(xùn)練步驟,反之亦然。如果你添加了更多的神經(jīng)節(jié)點和網(wǎng)絡(luò)層,請加大學(xué)習(xí)率。學(xué)習(xí)率與訓(xùn)練步驟、batch大小和優(yōu)化方法都有耦合關(guān)系。

相關(guān)閱讀:1)使用Keras對深度學(xué)習(xí)模型進(jìn)行學(xué)習(xí)率調(diào)節(jié) 2)反向傳播算法該選用什么學(xué)習(xí)率?

4) 激活函數(shù)

也許你應(yīng)該選用ReLU激活函數(shù)。僅僅因為它們的效果更好。

在ReLU之前流行sigmoid和tanh,然后是輸出層的softmax、線性和sigmoid函數(shù)。除此之外,我不建議嘗試其它的選擇。這三種函數(shù)都試一試,記得把輸入數(shù)據(jù)歸一化到它們的值域范圍。

顯然,你需要根據(jù)輸出內(nèi)容的形式選擇轉(zhuǎn)移函數(shù)。比方說,將二值分類的sigmoid函數(shù)改為回歸問題的線性函數(shù),然后對輸出值進(jìn)行再處理。同時,可能需要調(diào)整合適的損失函數(shù)。在數(shù)據(jù)轉(zhuǎn)換章節(jié)去尋找更多的思路吧。

相關(guān)閱讀:1)為何使用激活函數(shù)?

5) 網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)

調(diào)整網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)也會有一些幫助。你需要設(shè)計多少個節(jié)點,需要幾層網(wǎng)絡(luò)呢?別打聽了,鬼知道是多少。你必須自己找到一組合理的參數(shù)配置。

  • 試一試加一層有許多節(jié)點的隱藏層(拓寬)。
  • 試一試一個深層的神經(jīng)網(wǎng)絡(luò),每層節(jié)點較少(縱深)。
  • 嘗試將上面兩種組合。
  • 嘗試模仿近期發(fā)表的問題類似的論文。
  • 嘗試拓?fù)淠J胶蜁旧系慕?jīng)典技巧(參考下方的鏈接)。

這是一個難題。越大的網(wǎng)絡(luò)模型有越強(qiáng)的表達(dá)能力,也許你就需要這樣一個。

更多晨的結(jié)構(gòu)提供了抽象特征的更多結(jié)構(gòu)化組合的可能,也許你也需要這樣一個網(wǎng)絡(luò)。后期的網(wǎng)絡(luò)模型需要更多的訓(xùn)練過程,需要不斷地調(diào)節(jié)訓(xùn)練步長和學(xué)習(xí)率。

下面的鏈接可能給你提供一些思路:1)我的網(wǎng)絡(luò)模型該設(shè)計幾層呢? 2)我的網(wǎng)絡(luò)模型該設(shè)計幾個節(jié)點呢?

6) batch和epoch

batch的大小決定了梯度值,以及權(quán)重更新的頻率。一個epoch指的是訓(xùn)練集的所有樣本都參與了一輪訓(xùn)練,以batch為序。你嘗試過不同的batch大小和epoch的次數(shù)嗎?在前文中,我們已經(jīng)討論了學(xué)習(xí)率、網(wǎng)絡(luò)大小和epoch次數(shù)的關(guān)系。深度學(xué)習(xí)模型常用小的batch和大的epoch以及反復(fù)多次的訓(xùn)練。這或許對你的問題會有幫助。

  • 嘗試將batch大小設(shè)置為全體訓(xùn)練集的大小(batch learning)。
  • 嘗試將batch大小設(shè)置為1(online learning)。
  • 用網(wǎng)格搜索嘗試不同大小的mini-batch(8,16,32,…)
  • 嘗試再訓(xùn)練幾輪epoch,然后繼續(xù)訓(xùn)練很多輪epoch。

嘗試設(shè)置一個近似于無限大的epoch次數(shù),然后快照一些中間結(jié)果,尋找效果最好的模型。有些模型結(jié)構(gòu)對batch的大小很敏感。我覺得多層感知器對batch的大小很不敏感,而LSTM和CNN則非常敏感,但這都是仁者見仁。

相關(guān)閱讀:1)什么是批量學(xué)習(xí)、增量學(xué)習(xí)和在線學(xué)習(xí)? 2)直覺上,mini-batch的大小如何影響(隨機(jī))梯度下降的效果?

7) 正則項

正則化是克服訓(xùn)練數(shù)據(jù)過擬合的好方法。最近熱門的正則化方法是dropout,你試過嗎?Dropout方法在訓(xùn)練過程中隨機(jī)地略過一些神經(jīng)節(jié)點,強(qiáng)制讓同一層的其它節(jié)點接管。簡單卻有效的方法。

  • 權(quán)重衰減來懲罰大的權(quán)重值。
  • 激活限制來懲罰大的激活函數(shù)值。

嘗試用各種懲罰措施和懲罰項進(jìn)行實驗,比如L1、L2和兩者之和。

相關(guān)閱讀:1)使用Keras對深度學(xué)習(xí)模型做dropout正則化 2)什么是權(quán)值衰減?

8) 優(yōu)化方法和損失函數(shù)

以往主要的求解方法是隨機(jī)梯度下降,然而現(xiàn)在有許許多多的優(yōu)化器。你嘗試過不同的優(yōu)化策略嗎?隨機(jī)梯度下降是默認(rèn)的方法。先用它得到一個結(jié)果,然后調(diào)節(jié)不同的學(xué)習(xí)率、動量值進(jìn)行優(yōu)化。許多更高級的優(yōu)化方法都用到更多的參數(shù),結(jié)構(gòu)更復(fù)雜,收斂速度更快。這取決于你的問題,各有利弊吧。

為了壓榨現(xiàn)有方法的更多潛力,你真的需要深入鉆研每個參數(shù),然后用網(wǎng)格搜索法測試不同的取值。過程很艱辛,很花時間,但值得去嘗試。

我發(fā)現(xiàn)更新/更流行的方法收斂速度更快,能夠快速了解某個網(wǎng)絡(luò)拓?fù)涞臐摿Γ纾篈DAM RMSprop

你也可以探索其它的優(yōu)化算法,例如更傳統(tǒng)的算法(Levenberg-Marquardt)和比較新的算法(基因算法)。其它方法能給SGD創(chuàng)造好的開端,便于后續(xù)調(diào)優(yōu)。待優(yōu)化的損失函數(shù)則與你需要解決的問題更相關(guān)。

不過,也有一些常用的伎倆(比如回歸問題常用MSE和MAE),換個損失函數(shù)有時也會帶來意外收獲。同樣,這可能也與你輸入數(shù)據(jù)的尺度以及所使用的激活函數(shù)相關(guān)。

相關(guān)閱讀:1)梯度下降優(yōu)化算法概覽 2)什么是共軛梯度和Levenberg-Marquardt? 3)深度學(xué)習(xí)的優(yōu)化方法,2011

9) Early Stopping

你可以在模型性能開始下降的時候停止訓(xùn)練。這幫我們節(jié)省了大量時間,也許因此就能使用更精細(xì)的重采樣方法來評價模型了。early stopping也是防止數(shù)據(jù)過擬合的一種正則化方法,需要你在每輪訓(xùn)練結(jié)束后觀察模型在訓(xùn)練集和驗證集上的效果。

一旦模型在驗證集上的效果下降了,則可以停止訓(xùn)練。你也可以設(shè)置檢查點,保存當(dāng)時的狀態(tài),然后模型可以繼續(xù)學(xué)習(xí)。

相關(guān)閱讀:1)如何在Keras給深度學(xué)習(xí)模型設(shè)置check-point 2)什么是early stopping?

4. 用融合方法提升效果

你可以將多個模型的預(yù)測結(jié)果融合。繼模型調(diào)優(yōu)之后,這是另一個大的提升領(lǐng)域。事實上,往往將幾個效果還可以的模型的預(yù)測結(jié)果融合,取得的效果要比多個精細(xì)調(diào)優(yōu)的模型分別預(yù)測的效果好。我們來看一下模型融合的三個主要方向:

1. 模型融合

2. 視角融合

3. stacking

1) 模型融合

不必挑選出一個模型,而是將它們集成。如果你訓(xùn)練了多個深度學(xué)習(xí)模型,每一個的效果都不錯,則將它們的預(yù)測結(jié)果取均值。模型的差異越大,效果越好。舉個例子,你可以使用差異很大的網(wǎng)絡(luò)拓?fù)浜图记?。如果每個模型都獨立且有效,那么集成后的結(jié)果效果更穩(wěn)定。相反的,你也可以反過來做實驗。

每次訓(xùn)練網(wǎng)絡(luò)模型時,都以不同的方式初始化,最后的權(quán)重也收斂到不同的值。多次重復(fù)這個過程生成多個網(wǎng)絡(luò)模型,然后集成這些模型的預(yù)測結(jié)果。它們的預(yù)測結(jié)果會高度相關(guān),但對于比較難預(yù)測的樣本也許會有一點提升。

相關(guān)閱讀:1) 用scikit-learn集成機(jī)器學(xué)習(xí)算法 2)如何提升機(jī)器學(xué)習(xí)的效果

2) 視角融合

如上一節(jié)提到的,以不同的角度來訓(xùn)練模型,或是重新刻畫問題。我們的目的還是得到有用的模型,但是方式不同(如不相關(guān)的預(yù)測結(jié)果)。

你可以根據(jù)上文中提到的方法,對訓(xùn)練數(shù)據(jù)采取完全不同的縮放和變換技巧。所選用的變化方式和問題的刻畫角度差異越大,效果提升的可能性也越大。簡單地對預(yù)測結(jié)果取均值是一個不錯的方式。

3)stacking

你還可以學(xué)習(xí)如何將各個模型的預(yù)測結(jié)果相融合。這被稱作是stacked泛化,或者簡稱為stacking。通常,可以用簡單的線性回歸的方式學(xué)習(xí)各個模型預(yù)測值的權(quán)重。把各個模型預(yù)測結(jié)果取均值的方法作為baseline,用帶權(quán)重的融合作為實驗組。Stacked Generalization (Stacking)

總結(jié)

各抒己見吧

補(bǔ)充資料

還有一些非常好的資料,但沒有像本文這么全面。我在下面列舉了一些資料和相關(guān)的文章,你感興趣的話可以深入閱讀。

1)神經(jīng)網(wǎng)絡(luò)常見問答

2)如何用網(wǎng)格搜索法求解深度學(xué)習(xí)模型的超參數(shù)

3)深度神經(jīng)網(wǎng)絡(luò)必知的技巧

4)如何提升深度神經(jīng)網(wǎng)絡(luò)的驗證準(zhǔn)確率?

責(zé)任編輯:趙寧寧 來源: 36大數(shù)據(jù)
相關(guān)推薦

2018-08-21 09:49:02

GPU云服務(wù)器深度學(xué)習(xí)

2016-07-28 10:03:03

Intel

2016-12-06 09:06:08

深度學(xué)習(xí)算法性能

2018-04-26 08:35:40

云服務(wù)器深度學(xué)習(xí)GPU

2022-09-22 08:05:23

架構(gòu)

2018-06-07 08:48:16

性能測試敏捷開發(fā)持續(xù)集成

2011-10-17 09:47:53

應(yīng)用性能工作負(fù)載服務(wù)器

2020-07-14 08:21:03

機(jī)器學(xué)習(xí)技術(shù)人工智能

2020-05-25 22:39:38

機(jī)器學(xué)習(xí)物聯(lián)網(wǎng)IOT

2011-03-23 14:09:50

Oracle數(shù)據(jù)

2017-05-02 21:03:04

深度學(xué)習(xí)幾何學(xué)人工智能

2017-05-02 09:54:03

深度學(xué)習(xí)幾何學(xué)計算機(jī)

2024-09-29 16:11:53

2011-07-09 23:24:57

PHP

2010-05-21 14:41:37

IIS訪問

2024-11-05 11:14:05

2016-12-07 09:56:32

預(yù)測模型技巧

2016-12-06 19:29:56

機(jī)器學(xué)習(xí)性能數(shù)據(jù)

2013-05-22 09:38:03

GoGo語言Go性能

2022-10-18 08:23:38

機(jī)器學(xué)習(xí)轉(zhuǎn)換器NLP
點贊
收藏

51CTO技術(shù)棧公眾號