自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人人都能用的深度學(xué)習(xí):當(dāng)前三大自動化深度學(xué)習(xí)平臺簡介

開發(fā) 開發(fā)工具 深度學(xué)習(xí) 自動化
深度學(xué)習(xí)技術(shù)往往比較復(fù)雜,從頭開發(fā)的難度較大,但現(xiàn)在有一些公司提供了能幫助開發(fā)者輕松使用深度學(xué)習(xí)的自動化深度學(xué)習(xí)(ADL)平臺,比如微軟的 CustomVision.AI、谷歌的 Cloud AutoML、OneClick.AI。

深度學(xué)習(xí)技術(shù)往往比較復(fù)雜,從頭開發(fā)的難度較大,但現(xiàn)在有一些公司提供了能幫助開發(fā)者輕松使用深度學(xué)習(xí)的自動化深度學(xué)習(xí)(ADL)平臺,比如微軟的 CustomVision.AI、谷歌的 Cloud AutoML、OneClick.AI。Data Science Central 近日發(fā)文對這三個平臺進行了比較和盤點,機器之心對該文做了編譯介紹。

阻礙我們使用深度學(xué)習(xí)方法的原因有很多,其中最主要的是深度學(xué)習(xí)方法很復(fù)雜和困難。

數(shù)據(jù)科學(xué)領(lǐng)域有一部分研究者和開發(fā)者已經(jīng)選擇學(xué)習(xí)這些新技術(shù)了,但在預(yù)測性和規(guī)范性建模的問題類型和技術(shù)方面(我們 90% 的工作就是這些),學(xué)習(xí)深度學(xué)習(xí)技術(shù)卻與我們的大部分工作方向背道而馳。

至少在圖像、視頻、文本和語音識別與處理領(lǐng)域,人工智能(AI)已經(jīng)成為了每個人的口頭禪,但尋找有資格執(zhí)行你的項目的數(shù)據(jù)科學(xué)家仍然很困難。

實際上我列舉的圖像、視頻、文本和語音應(yīng)用只是深度學(xué)習(xí)應(yīng)用的一小部分。盡管這些是最為人所知且可能是最明顯的應(yīng)用,但深度神經(jīng)網(wǎng)絡(luò)(DNN)也能出色地預(yù)測時序數(shù)據(jù)以及解決復(fù)雜的傳統(tǒng)的消費傾向問題。

去年 12 月份我在寫數(shù)據(jù)科學(xué) 2018 年預(yù)測時,我注意到 Gartner 說在 2018 年 DNN 會成為 80% 數(shù)據(jù)科學(xué)家的標(biāo)準(zhǔn)工具組件。我的預(yù)測是:盡管能實現(xiàn)這種簡潔性的***家提供商肯定會獲得豐厚的回報,但絕不可能是在 2018 年??磥砦翌A(yù)測錯了。

2018 年才剛過去 4 個月,我就看到了三種旨在簡化深度學(xué)習(xí)以讓任何人(至少是任何數(shù)據(jù)科學(xué)家)都能使用該技術(shù)的不同平臺。

***要求

所有的主要公司和幾家小公司都為執(zhí)行 CNN 或 RNN/LSTM 提供了極大簡化的工具,但這仍然需要實驗性地人工調(diào)整層的類型和數(shù)量、連接方式、節(jié)點和其它超參數(shù)(這些設(shè)置往往會影響最初的成功)。

我們希望有真正一鍵式的應(yīng)用,讓一般的數(shù)據(jù)科學(xué)家或甚至開發(fā)者都能成功構(gòu)建圖像或文本分類器。

實現(xiàn)這一目標(biāo)的最快方法是通過遷移學(xué)習(xí)。在深度學(xué)習(xí)領(lǐng)域,遷移學(xué)習(xí)是指將之前成功構(gòu)建的大型的、復(fù)雜的 CNN 或 RNN/LSTM 模型在新的更有限的數(shù)據(jù)集上進行訓(xùn)練。

基本上而言,常用于圖像分類的遷移學(xué)習(xí)會將更復(fù)雜的模型歸納為更少或之前訓(xùn)練過的類別。遷移學(xué)習(xí)不能創(chuàng)造原模型中沒有的分類,但它可以學(xué)習(xí)創(chuàng)造子集或匯總類別。

其優(yōu)勢在于常常會執(zhí)行超參數(shù)調(diào)節(jié),這樣你就知道模型將會訓(xùn)練。更重要的是,你只需不到 1 個小時時間,僅用幾百張有標(biāo)注圖像就能構(gòu)建一個成功的遷移模型。

但是,自動化深度學(xué)習(xí)的真正目標(biāo)是完全自動化的超參數(shù)調(diào)節(jié),而不是遷移學(xué)習(xí)。你在下面會讀到,有的努力還在進行中,而有的則宣稱已經(jīng)實現(xiàn)了這一目標(biāo)。

微軟 CustomVision.AI

鏈接:https://www.customvision.ai

2017 年底,微軟在 Microsoft Cognitive Services(微軟認(rèn)知服務(wù))的旗幟下推出了一系列極大簡化后的深度學(xué)習(xí)功能,涵蓋圖像、視頻、文本和語音等各個領(lǐng)域。今年 1 月,他們又推出了完全自動化的平臺 Microsoft Custom Vision Services(微軟定制視覺服務(wù))。

這個平臺只是圖像分類器,并且還向用戶承諾只需少量圖像就能使用微軟的巨大的已有大型、復(fù)雜、多圖像分類器庫創(chuàng)建穩(wěn)健的 CNN 遷移模型。

使用這個平臺非常簡單。只需將你的圖像拖放到這個平臺上然后繼續(xù)即可。你需要一個即付即用的 Azure 帳戶,基本的技術(shù)支持是每個月 29 美元。模型訓(xùn)練的時間不是明確的,但因為是遷移學(xué)習(xí),所以應(yīng)該會很快,因此也不會太貴(但也不是免費的)。

在項目設(shè)置過程中,你會被要求確定一個你的圖像集將會遷移學(xué)習(xí)的一般域,目前可選的有:

  • 一般(General)
  • 食物(Food)
  • 地標(biāo)(Landmarks)
  • 零售(Retail)
  • 成人(Adult)
  • 一般(緊湊)
  • 地標(biāo)(緊湊)
  • 零售(緊湊)

盡管所有這些模型都可以在訓(xùn)練后通過 restful API 運行,但***三個類別(標(biāo)記有「緊湊」)可以導(dǎo)出到任何 iOS 或安卓邊緣設(shè)備上離線運行。在 iOS 11 上導(dǎo)出的格式是 CoreML 格式;在安卓設(shè)備上是 TensorFlow 格式。這應(yīng)該能吸引可能不是數(shù)據(jù)科學(xué)家的應(yīng)用開發(fā)者為他們的應(yīng)用添加即時圖像分類功能。

可以預(yù)見微軟未來還會盡快地推出更復(fù)雜的功能。

谷歌 Cloud AutoML

鏈接:https://cloud.google.com/automl

同樣在今年 1 月,谷歌也宣布了其類似的項目 Cloud AutoML。這個平臺目前處于 alpha 開發(fā)階段,需要邀請才能參與。

和微軟一樣,這個服務(wù)使用了谷歌自己預(yù)構(gòu)建的復(fù)雜 CNN 分類器的遷移學(xué)習(xí)。他們推薦至少給每個標(biāo)簽提供 100 張圖像來遷移學(xué)習(xí)。

谷歌 Cloud AutoML

目前還不清楚該平臺在正式發(fā)布時會有哪些圖像類別,但用戶截屏顯示至少有一般、人臉、logo、地標(biāo),也許還有其它一些。從谷歌分享的截圖看,這些模型的訓(xùn)練時間大約為 20 分鐘到幾個小時。

根據(jù)我們可以找到的數(shù)據(jù),這個平臺的使用方式應(yīng)該是通過 API。沒有什么地方提到了導(dǎo)出代碼離線使用的情況。早期的 alpha 用戶包括迪斯尼公司和 Urban Outfitters。

可以預(yù)見很多新用戶都沒有有標(biāo)注的數(shù)據(jù),谷歌提供了它自己的人工標(biāo)注服務(wù),但要額外收費。

除了遷移學(xué)習(xí)之外,包括谷歌在內(nèi)的主要公司都在推動自動化 CNN 和 RNN 優(yōu)化調(diào)節(jié)的自動化方案。人工開發(fā)的模型是當(dāng)前的常態(tài),也是需要如此多不成功的迭代的原因。

谷歌將這種下一代技術(shù)稱為 Learn2Learn。當(dāng)前他們在實驗用 RNN 來優(yōu)化層、層類型、節(jié)點、連接和其它超參數(shù)。因為這基本上是非常高速的隨機搜索,所以計算資源可能非常高。

接下來要做的是用進化算法來做同樣的事情,這在時間和計算上都會高效得多。在最近的演示中,谷歌研究者展示了這種方法的優(yōu)良結(jié)果,但他們?nèi)匀还馐窃趦?yōu)化上就花了 3 到 10 天。

OneClick.AI

鏈接:https://www.oneclick.ai

OneClick.AI 是 2017 年底出現(xiàn)在市場上的一個自動化機器學(xué)習(xí)(AML)平臺,其中既包括傳統(tǒng)的算法,也包括深度學(xué)習(xí)算法。

OneClick.AI 光是 AML 方面也值得一看了,其中包括數(shù)據(jù)融合、準(zhǔn)備、特征工程、特征選擇,后面還有并行的傳統(tǒng)多模型,以確定其中***的模型。

但是,OneClick 的不同之處在于其既有圖像算法,也有文本算法;使用的方法既有遷移學(xué)習(xí),也有完全自動化的超參數(shù)調(diào)節(jié)來重新修改圖像和文本深度學(xué)習(xí)模型。

不同于谷歌和微軟,OneClick 在圖像和文本上都準(zhǔn)備好了。除此之外,他們還將 DNN 與傳統(tǒng)算法組合到了一起,并且使用了 DNN 來做預(yù)測。

預(yù)測是使用 DNN 方面一個已經(jīng)探索過的領(lǐng)域,但事實表明其表現(xiàn)能輕松超過 ARIMA 和 ARIMAX 等時序數(shù)據(jù)預(yù)測器。

對于這樣一個提供了如此復(fù)雜的工具和技術(shù)的平臺而言,它保持了「一鍵出模型」的簡單易用性——我認(rèn)為這是自動化機器學(xué)習(xí)的***要求,但也包括自動化深度學(xué)習(xí)。

他們用于優(yōu)化深度學(xué)習(xí)模型的方法是專有的,但該公司的創(chuàng)始人兼 CEO Yuan Shen 描述說他們是用 AI 訓(xùn)練 AI——可能是一種深度學(xué)習(xí)優(yōu)化方法。

哪個平臺更好?

目前還沒有什么標(biāo)準(zhǔn)可以評估哪個平臺更好,但 OneClick.AI 提供了一個案例。

在今年初的一個黑客馬拉松上,該團隊測試比較了 OneClick 和微軟的 CustomVision(谷歌的 AutoML 當(dāng)時還不可用)。他們測試了兩個圖像分類問題。標(biāo)記符合以下描述的照片:

奔跑的馬或喝水的馬:

裸照:

標(biāo)記馬的任務(wù)是一個多標(biāo)簽分類任務(wù),裸照檢測是一個二元分類任務(wù)。對于每個任務(wù),他們都使用了 20 張訓(xùn)練圖像以及另外 20 張測試圖像。

  • 標(biāo)記馬的準(zhǔn)確度:90%(OneClick.ai)vs. 75%(微軟 Custom Vision)
  • 裸照檢測準(zhǔn)確度:95%(OneClick.ai)vs. 50%(微軟 Custom Vision)

因為這個結(jié)果僅使用了遷移學(xué)習(xí)方面非常少量的樣本,所以不具有統(tǒng)計意義。但還是能看到差別。

這是遷移學(xué)習(xí)方面的比較。我們很有興趣了解自動化模型優(yōu)化方面的比較。OneClick 準(zhǔn)備好了。谷歌應(yīng)該很快就會跟進。

你可能想問亞馬遜的情況?在我們的調(diào)研中沒看到亞馬遜在自動化深度學(xué)習(xí)方面的計劃,但也不會落后太遠(yuǎn)。

原文鏈接:

https://www.datasciencecentral.com/profiles/blogs/automated-deep-learning-so-simple-anyone-can-do-it

【本文是51CTO專欄機構(gòu)“機器之心”的原創(chuàng)譯文,微信公眾號“機器之心( id: almosthuman2014)”】

戳這里,看該作者更多好文

責(zé)任編輯:趙寧寧 來源: 51CTO專欄
相關(guān)推薦

2017-09-11 09:44:24

機器學(xué)習(xí)自動化AML

2022-03-09 09:56:14

深度學(xué)習(xí)算法人工智能

2024-09-13 15:24:20

深度學(xué)習(xí)自動微分

2021-08-27 12:13:41

深度學(xué)習(xí)

2017-03-07 13:14:04

深度學(xué)習(xí)

2021-03-08 11:28:59

人工智能深度學(xué)習(xí)Python

2021-03-18 11:45:49

人工智能機器學(xué)習(xí)算法

2020-05-19 14:00:09

人工智能機器學(xué)習(xí)AI

2021-07-20 12:21:20

自動化威脅瑞數(shù)信息

2017-05-08 16:13:33

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)深度

2019-02-14 14:44:48

2017-08-03 16:20:42

深度學(xué)習(xí)文本摘要遞歸神經(jīng)網(wǎng)絡(luò)

2021-08-19 11:22:22

深度學(xué)習(xí)編程人工智能

2021-05-06 09:05:11

深度學(xué)習(xí)

2017-06-27 14:49:20

深度學(xué)習(xí)機器學(xué)習(xí)

2017-03-06 16:56:37

深度學(xué)習(xí)本質(zhì)現(xiàn)狀

2021-04-16 11:31:24

人工智能深度學(xué)習(xí)

2020-09-14 07:00:00

測試自動化框架

2019-03-06 09:55:54

Python 開發(fā)編程語言

2020-04-16 11:19:55

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)層
點贊
收藏

51CTO技術(shù)棧公眾號