自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

重新審視深度學(xué)習(xí)時(shí)代數(shù)據(jù)的非理性效果

開發(fā) 開發(fā)工具
在我們的《重新審視深度學(xué)習(xí)時(shí)代數(shù)據(jù)的非理性效果》 這篇論文中,我們?cè)诮议_圍繞“海量數(shù)據(jù)”和深度學(xué)習(xí)之間關(guān)系的謎團(tuán)方面邁出了第一步。我們的目標(biāo)是探究以下問(wèn)題

過(guò)去十年里,計(jì)算機(jī)視覺(jué)領(lǐng)域取得了巨大成功,這在很大程度上得直接歸功于深度學(xué)習(xí)模型在機(jī)器感知任務(wù)中的應(yīng)用。

此外,自 2012 年以來(lái),這些系統(tǒng)的表征能力取得了長(zhǎng)足的進(jìn)步,這歸因于:

(a) 極為復(fù)雜的更深度模型的建立;

(b) 計(jì)算能力不斷提升;

(c) 可獲得大規(guī)模的標(biāo)注數(shù)據(jù)。

盡管計(jì)算能力和模型復(fù)雜度每年都在不斷提升(已從 7 層的 AlexNet 提高到 101 層的 ResNet),但可用數(shù)據(jù)集并未得到相應(yīng)的擴(kuò)充。與 AlexNet 相比,101 層的 ResNet 的容量要大得多,但它仍在使用同樣從 ImageNet circa 2011 獲取的 100 萬(wàn)張圖像進(jìn)行訓(xùn)練。作為研究人員,我們一直想知道:如果將訓(xùn)練數(shù)據(jù)量擴(kuò)大 10 倍,準(zhǔn)確率是否會(huì)翻倍?擴(kuò)大 100 倍甚或 300 倍,準(zhǔn)確率又會(huì)如何?準(zhǔn)確率是否會(huì)遭遇平臺(tái)期?還是說(shuō)數(shù)據(jù)越多,準(zhǔn)確率就越高?

過(guò)去五年里,GPU 的計(jì)算能力和模型大小在不斷提高,但令人吃驚的是,***的培訓(xùn)數(shù)據(jù)集的規(guī)模卻停滯不前。

在我們的《重新審視深度學(xué)習(xí)時(shí)代數(shù)據(jù)的非理性效果》(Revisiting Unreasonable Effectiveness of Data in Deep Learning Era) 這篇論文中,我們?cè)诮议_圍繞“海量數(shù)據(jù)”和深度學(xué)習(xí)之間關(guān)系的謎團(tuán)方面邁出了***步。我們的目標(biāo)是探究以下問(wèn)題:

(a) 向現(xiàn)有算法提供更多帶有噪聲標(biāo)簽的圖像是否仍可以改善視覺(jué)表征;

(b) 分類、對(duì)象檢測(cè)和圖像分割等標(biāo)準(zhǔn)視覺(jué)任務(wù)中,數(shù)據(jù)與性能之間的本質(zhì)關(guān)系;

(c) 通過(guò)大規(guī)模學(xué)習(xí)找到適用于計(jì)算機(jī)視覺(jué)領(lǐng)域所有任務(wù)的***進(jìn)模型。

當(dāng)然,一個(gè)無(wú)法回避的問(wèn)題是我們從何處獲取一個(gè)比 ImageNet 大 300 倍的數(shù)據(jù)集?在 Google,我們一直致力于自動(dòng)構(gòu)建此類數(shù)據(jù)集以改善計(jì)算機(jī)視覺(jué)算法。具體而言,我們已構(gòu)建一個(gè)包含 3 億張圖像的內(nèi)部數(shù)據(jù)集(我們稱之為 JFT-300M),這些圖像被標(biāo)記為 18291 個(gè)類別。用于標(biāo)記這些圖像的算法使用了復(fù)雜的數(shù)據(jù)組合,包括原始網(wǎng)絡(luò)信號(hào)、網(wǎng)頁(yè)與用戶反饋之間的聯(lián)系等。這為 3 億張圖像生成了 10 億多個(gè)標(biāo)簽(一張圖像可具有多個(gè)標(biāo)簽)。為***程度提高所選圖像的標(biāo)簽精度,我們通過(guò)某個(gè)算法從 10 億個(gè)圖像標(biāo)簽中選取了大約 3.75 億個(gè)標(biāo)簽。然而,這些標(biāo)簽中仍然存在大量噪聲:所選圖像的標(biāo)簽中約有 20% 帶有噪聲。由于缺乏詳盡的注解,我們無(wú)法評(píng)估標(biāo)簽的回想率。

我們的實(shí)驗(yàn)結(jié)果證實(shí)了部分假設(shè),但也產(chǎn)生了一些意外的驚喜:

  • 更好的表征學(xué)習(xí)確實(shí)大有裨益。 我們的***個(gè)觀察結(jié)果是大規(guī)模數(shù)據(jù)有助于表征學(xué)習(xí),進(jìn)而改善了我們研究的每個(gè)視覺(jué)任務(wù)的性能表現(xiàn)。我們的研究發(fā)現(xiàn)表明:共同構(gòu)建一個(gè)大規(guī)模數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練非常重要。同時(shí),實(shí)驗(yàn)也表明,無(wú)監(jiān)督和半監(jiān)督表征學(xué)習(xí)方法的前景非常光明。數(shù)據(jù)規(guī)模似乎可克服標(biāo)簽方面的噪聲問(wèn)題。
  • 表現(xiàn)與訓(xùn)練數(shù)據(jù)的數(shù)量級(jí)呈線性遞增關(guān)系。 也許整個(gè)實(shí)驗(yàn)最驚人的發(fā)現(xiàn)就是視覺(jué)任務(wù)的表現(xiàn)和用于表征學(xué)習(xí)的訓(xùn)練數(shù)據(jù)量(對(duì)數(shù))之間的關(guān)系了。我們發(fā)現(xiàn)它們之間的關(guān)系竟然是線性的!即使訓(xùn)練圖像達(dá)到 3 億張,我們也并未觀察到對(duì)所研究的任務(wù)產(chǎn)生任何平臺(tái)效應(yīng)。

通過(guò)針對(duì) JFT-300M 的不同子集從零開始進(jìn)行預(yù)訓(xùn)練時(shí)的對(duì)象檢測(cè)性能。X 軸是以對(duì)數(shù)表示的數(shù)據(jù)集大小,y 軸代表針對(duì) COCO-minival 子集的 mAP@[.5,.95] 檢測(cè)性能。

  • 容量至關(guān)重要。我們同樣觀察到:為了充分利用 3 億張圖像,我們需要更高的容量(更深的)模型。例如,就 ResNet-50 而言,其在 COCO 對(duì)象檢測(cè)基準(zhǔn)測(cè)試中的增益 (1.87%) 大大低于使用 ResNet-152 時(shí)的增益 (3%)。
  • 新的***結(jié)果。我們的論文展示了通過(guò)使用從 JFT-300M 學(xué)到的模型在多個(gè)基準(zhǔn)中取得了新的***結(jié)果。例如,單一模型(沒(méi)有任何不必要的花哨功能)在 COCO 檢測(cè)基準(zhǔn)測(cè)試中從原來(lái)的 34.3 AP 提高到現(xiàn)在的 37.4 AP。

請(qǐng)注意,我們使用的訓(xùn)練機(jī)制、學(xué)習(xí)安排和參數(shù)都是基于我們使用來(lái)自 ImageNet 的 100 萬(wàn)張圖像對(duì) ConvNets 進(jìn)行訓(xùn)練后所獲得的認(rèn)識(shí)。由于我們?cè)诖隧?xiàng)工作中并未搜索***超參數(shù)集(這需要極為龐大的計(jì)算量),所以在使用這種規(guī)模的數(shù)據(jù)時(shí),這些結(jié)果很可能并不是您能夠取得的***結(jié)果。因此,我們認(rèn)為報(bào)告的量化表現(xiàn)低估了數(shù)據(jù)的實(shí)際影響。

這項(xiàng)工作并不會(huì)關(guān)注特定任務(wù)的數(shù)據(jù),例如探究更多的邊界框是否會(huì)影響模型表現(xiàn)等。我們認(rèn)為,雖然獲取大規(guī)模特定于任務(wù)的數(shù)據(jù)非常困難,但它應(yīng)該成為未來(lái)研究的重點(diǎn)。此外,構(gòu)建包含 3 億張圖像的數(shù)據(jù)集不應(yīng)該是我們的***目標(biāo),作為一個(gè)社區(qū),我們要探索的是,在采用更大規(guī)模的數(shù)據(jù)集(擁有 10 億張以上的圖像)時(shí),是否可以繼續(xù)改善模型。

【本文是51CTO專欄機(jī)構(gòu)“谷歌開發(fā)者”的原創(chuàng)稿件,轉(zhuǎn)載請(qǐng)聯(lián)系原作者(微信公眾號(hào):Google_Developers)】

戳這里,看該作者更多好文

責(zé)任編輯:趙寧寧 來(lái)源: 51CTO專欄
相關(guān)推薦

2012-02-28 15:53:33

2021-11-19 14:56:13

邊緣計(jì)算

2010-03-03 14:43:23

2014-12-09 16:25:49

軟件定義網(wǎng)絡(luò)

2017-07-10 13:46:32

PC市場(chǎng)匠心

2010-11-15 20:58:00

低碳新一代數(shù)據(jù)中心

2013-05-07 10:11:28

2016-10-26 08:49:38

2024-01-10 14:21:58

人工智能AI數(shù)據(jù)存儲(chǔ)

2017-12-05 07:43:13

2020-06-07 16:43:36

云計(jì)算IT云遷移

2009-06-02 23:47:44

LeftHand虛擬化

2013-09-03 13:01:12

數(shù)據(jù)安全數(shù)據(jù)存儲(chǔ)

2020-10-23 09:57:31

數(shù)據(jù)安全SaaS技術(shù)

2020-11-18 10:21:36

存儲(chǔ)混合存儲(chǔ)

2011-05-13 14:20:19

2024-10-16 12:46:35

2014-09-04 10:26:50

數(shù)據(jù)中心艾默生

2024-01-24 14:46:45

生成式人工智機(jī)器學(xué)習(xí)數(shù)據(jù)現(xiàn)代化

2019-10-08 11:31:01

磁帶存儲(chǔ)數(shù)據(jù)中心
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)