自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

收藏!2017年AI圈大事最全盤點(diǎn) !(附視頻)

人工智能
假設(shè)你在2017年昏睡了一年,忽然驚醒的時(shí)候,想要了解這個(gè)世界在今年有哪些最值得驕傲的成就,這篇文章值得你花幾十分鐘讀一讀。本文將帶你瀏覽2017年幾乎所有最有意義的AI研究,從文本、語音、計(jì)算機(jī)視覺到強(qiáng)化學(xué)習(xí)和最重要的新聞。

 

[[219484]]

假設(shè)你在2017年昏睡了一年,忽然驚醒的時(shí)候,想要了解這個(gè)世界在今年有哪些最值得驕傲的成就,這篇文章值得你花幾十分鐘讀一讀。

這一年,谷歌發(fā)布了Google Translate的新模型,并詳細(xì)描述了網(wǎng)絡(luò)結(jié)構(gòu)——循環(huán)神經(jīng)網(wǎng)絡(luò)。Facebook的聊天機(jī)器人,因?yàn)槭Э貏?chuàng)造了自己的語言被關(guān)閉。DeepMind 的研究員在他們的文章中展示了如何生成語音。一個(gè)已經(jīng)成功超越人類的深度學(xué)習(xí)成就叫做唇語識(shí)別。

本文將帶你瀏覽2017年幾乎所有最有意義的AI研究,從文本、語音、計(jì)算機(jī)視覺到強(qiáng)化學(xué)習(xí)和最重要的新聞。

其中的大部分事件,文摘菌都在其發(fā)生之時(shí)做過相關(guān)報(bào)道,回憶起來,感慨萬分,我們也在相應(yīng)部分附上了報(bào)道鏈接,方便查看細(xì)節(jié)。

1. 文本

1.1谷歌神經(jīng)機(jī)器翻譯 

大約一年前,谷歌發(fā)布了Google Translate的新模型,并詳細(xì)描述了網(wǎng)絡(luò)結(jié)構(gòu)——循環(huán)神經(jīng)網(wǎng)絡(luò)。 

鏈接:https://blog.statsbot.co/machine-learning-translation-96f0ed8f19e4 

關(guān)鍵成果:與人類翻譯的準(zhǔn)確率之差縮小了55%-85% (研究者使用6分制打分標(biāo)準(zhǔn)評估得到)。如果不依賴谷歌龐大的數(shù)據(jù)庫進(jìn)行訓(xùn)練,這一結(jié)果很難復(fù)現(xiàn)。

1.2: 談判 

你可能聽過這個(gè)謠言:Facebook的聊天機(jī)器人,因失控創(chuàng)造自己的語言而被關(guān)閉。

該聊天機(jī)器人原本被設(shè)計(jì)用來談判,其目的是與其他機(jī)器人(代理)進(jìn)行文本談判并達(dá)成協(xié)議:如何在兩個(gè)人之間分配物品(書籍和帽子等)。每一個(gè)機(jī)器人(代理)有對方不掌握的交易信息。同時(shí),談判的設(shè)定是不達(dá)成交易就不終止。

他們收集了一個(gè)人類談判的數(shù)據(jù)庫,并訓(xùn)練出了一個(gè)監(jiān)督式的循環(huán)網(wǎng)絡(luò)。隨后,他們讓強(qiáng)化訓(xùn)練后的機(jī)器人,通過自我對話的方式繼續(xù)訓(xùn)練,直到與人類語言近似到一定程度為止。

該機(jī)器人已經(jīng)學(xué)會(huì)了一種真正的談判技巧——對交易中的某些因素假裝表現(xiàn)出興趣,隨后僅僅通過犧牲它們來達(dá)成真正目的。

新聞里聲稱機(jī)器人發(fā)明了一種新語言,這種說法有點(diǎn)過于夸張。當(dāng)用同一個(gè)機(jī)器人來訓(xùn)練的時(shí)候,它沒有被限制必須用與人類語言,所以算法進(jìn)行了一些變異,這很正常。

文章鏈接:https://blog.statsbot.co/machine-learning-translation-96f0ed8f19e4 

在過去的一年里,循環(huán)網(wǎng)絡(luò)得到了很大的改進(jìn),并被應(yīng)用于諸多領(lǐng)域。RNN的結(jié)構(gòu)也越來越復(fù)雜,但是在某些領(lǐng)域,簡約前向網(wǎng)絡(luò)(DSSM)都取得了相似的結(jié)果。例如,在郵件智能回復(fù)方面,谷歌取得了與LSTM之前一樣的效果。另外,Yandex基于這套網(wǎng)絡(luò),發(fā)布了新的搜索引擎。

2. 語音

2.1:WaveNet,一種針對音源的生成模型 

DeepMind 的研究員在他們的文章中展示了如何生成語音。簡單的說,他們基于之前生成圖像的方法,PixelRNN 和PixelCNN,創(chuàng)造了一個(gè)自回歸全卷積的WaveNet模型。 

該網(wǎng)絡(luò)被以點(diǎn)到點(diǎn)的方式訓(xùn)練:文本作為輸入,語音作為輸出。最終研究人員取得了極好的結(jié)果。在語音生成方面,機(jī)器人與人類的差距縮小了50%。

 

該網(wǎng)絡(luò)的主要缺陷在于效率低下。因?yàn)槭褂昧俗曰貧w技術(shù),音頻是按順序生成,并且每1-2分鐘,才能生成一秒語音。 

如果去掉對文字輸入的依賴,僅僅基于前期產(chǎn)生的語音,該網(wǎng)絡(luò)會(huì)產(chǎn)生出類似人類的語言。但這樣并沒有實(shí)際意義。 

這一模型不僅僅可以用于語音生成,也可以用于音樂創(chuàng)作。設(shè)想,在不依賴輸入數(shù)據(jù)的情況下,僅僅被鋼琴游戲的數(shù)據(jù)庫訓(xùn)練,該模型便可生成音頻。

2.2:唇語識(shí)別 

唇語識(shí)別是另外一個(gè)已經(jīng)成功超越人類的深度學(xué)習(xí)成就。 

《Lip ReadingSentences in the Wild》。Google Deepmind 在這篇于牛津大學(xué)合作發(fā)表的論文中,公布了他們給予電視數(shù)據(jù)訓(xùn)練的模型。該模型性能超越了BBC頻道專業(yè)的唇語閱讀員。

 

該數(shù)據(jù)集包括10萬條配有音頻和視頻的語句。LSTM訓(xùn)練音頻,CNN+LSTM訓(xùn)練視頻。最后將兩者的狀態(tài)向量作為最終LSTM模型的輸入,以產(chǎn)生文字輸出。

 

訓(xùn)練中,使用不同的數(shù)據(jù)類型,包括音頻,視頻以及音頻+視頻。換句話說,這是個(gè)多渠道模型。

 

2.3:合成奧巴馬——從音頻中同步嘴唇動(dòng)作 

華盛頓大學(xué)進(jìn)行了一項(xiàng)研究,以合成美國前總統(tǒng)奧巴馬的嘴唇動(dòng)作。選擇他為對象的原因在于,在網(wǎng)絡(luò)上有大量他的視頻(17小時(shí)的高清視頻)。 

 

 

他們不能過多地直接使用網(wǎng)絡(luò)模型輸出的合成畫面。因此,論文的作者使用了一些技巧來改善紋理的時(shí)間方面的問題。 

 

 

效果如此令人震驚。也許不久的將來,即使是總統(tǒng)演講視頻都有可能是合成的。 

3. 計(jì)算機(jī)視覺 

3.1:OCR——谷歌地圖和街景 

谷歌大腦團(tuán)隊(duì)在他們公布的文章中,介紹了他們?nèi)绾螌⑿乱淮鶲CR(光學(xué)字符識(shí)別)引擎引入谷歌地圖中,以實(shí)現(xiàn)街道標(biāo)志和店鋪標(biāo)志的自動(dòng)識(shí)別。

[[219487]]

在開發(fā)過程中,谷歌解碼了新的FSNS(法語街道名標(biāo)示),有很多復(fù)雜的場景。 

為了識(shí)別出每一個(gè)標(biāo)志,網(wǎng)絡(luò)模型最多使用了標(biāo)志的四張圖片。特征通過CNN提取后,經(jīng)過空間變化(考慮像素坐標(biāo))再輸入到LSTM模型中。

 

相似的方法被用于識(shí)別布告牌中店鋪名稱的的項(xiàng)目。但是該項(xiàng)目的圖像數(shù)據(jù)有很多無關(guān)信息,網(wǎng)絡(luò)模型必須對焦正確的信息進(jìn)行讀取。這一算法已經(jīng)被應(yīng)用于800億張圖片上。 

3.2:視覺推理 

另一種稱做視覺推理的任務(wù),是要讓神經(jīng)網(wǎng)絡(luò)利用圖片中信息來回答問題。例如:圖片中有于黃色金屬圓柱體一般大的橡膠物品么?這種問題對算法來講很難,到目前為止,準(zhǔn)確率只有68.5%。

 

DeepMind在這一領(lǐng)域取得了突破,在CLEVR數(shù)據(jù)集中,他們?nèi)〉昧?5.5% 的超高準(zhǔn)確率。 

這一網(wǎng)絡(luò)模型的結(jié)構(gòu)很有意思: 

  • 通過預(yù)訓(xùn)練好的LSTM模型,從文字問題中抽象出問題。
  • 使用4層的CNN模型,從圖片中得到特征圖(下圖中的黃色,藍(lán)色,和紅色部分),再加入坐標(biāo),將其與文字對應(yīng)起來。
  • 之后,再用另一個(gè)網(wǎng)絡(luò)模型處理并集成這三類特征。
  • 最終,通過一個(gè)前反饋網(wǎng)絡(luò)中的柔性最大激活函數(shù)(softmax),將答案呈現(xiàn)出來。

3.3:Pix2Code——用戶圖形界面代碼自動(dòng)生成 

Uizard(一家哥本哈根創(chuàng)業(yè)公司)開發(fā)了一款趣味十足的基于神經(jīng)網(wǎng)絡(luò)的應(yīng)用程序:它能夠根據(jù)界面設(shè)計(jì)師的截屏圖片生成GUI(圖形用戶界面)的布局代碼。 

 

這是一款十分實(shí)用的神經(jīng)網(wǎng)絡(luò)應(yīng)用程序,它能夠讓軟件開發(fā)變得更加容易。開發(fā)者(作者)聲稱該應(yīng)用可以達(dá)到77%的準(zhǔn)確率。不過,這款應(yīng)用程序仍處在研究階段,尚未投入實(shí)際使用。 

現(xiàn)在暫無項(xiàng)目的開源代碼和數(shù)據(jù)集,但是該公司承諾未來會(huì)在網(wǎng)上發(fā)布。


3.4:SketchRNN——教會(huì)機(jī)器如何作畫 

也許你已經(jīng)見識(shí)過了谷歌的“Quick,Draw!”,一款讓用戶在20秒內(nèi)畫出不同物體草圖的小程序。谷歌公司收集該程序的數(shù)據(jù)集來教會(huì)神經(jīng)網(wǎng)絡(luò)如何作畫,正如他們在博客和文章中介紹的那樣。

 

公司收集到的數(shù)據(jù)集中包含70000張草圖,這個(gè)數(shù)據(jù)集現(xiàn)已公開。草圖不是以圖片的形式表示的,而是以圖中線條的詳細(xì)的向量形式表示。 

研究人員使用RNN訓(xùn)練出序列到序列的變分自動(dòng)編碼器來作為編碼/解碼機(jī)制。

 

最后,為了適應(yīng)自動(dòng)編碼器,模型接收描述原始圖片特征的特征向量(隱向量)作為輸入。 

而解碼器可以從輸入的向量中提取出一個(gè)圖,并且可以通過改變輸入向量獲得新的草圖。

 

甚至可以通過向量運(yùn)算創(chuàng)造出“catpig”(貓豬)的形象。

 

3.5:生成對抗網(wǎng)絡(luò)(GANS) 

生成對抗網(wǎng)絡(luò)(GANS)是深度學(xué)習(xí)中最受關(guān)注的主題之一。多數(shù)情況下,這個(gè)網(wǎng)絡(luò)是用來處理圖像的。 

文章鏈接:https://blog.statsbot.co/generative-adversarial-networks-gans-engine-and-applications-f96291965b47 

GANS的思想是兩個(gè)網(wǎng)絡(luò)——生成器和鑒別器——的競爭。第一個(gè)網(wǎng)絡(luò)生成一張圖片,第二個(gè)網(wǎng)絡(luò)則是試圖分辨出該圖片是真正的圖片還是生成的圖片。 

GANS的示意圖如下所示:

 

在訓(xùn)練過程中,生成器首先通過一個(gè)隨機(jī)向量(噪音)生成圖像,然后把它輸入能夠判別圖像真假的鑒別器中。來自真實(shí)世界的圖像同樣會(huì)被輸入到鑒別器中。 

這樣的結(jié)構(gòu)難以訓(xùn)練,因?yàn)楹茈y找到兩個(gè)網(wǎng)絡(luò)之間的平衡點(diǎn)。多數(shù)情況鑒別器獲勝然后訓(xùn)練過程陷入停滯。不過,該系統(tǒng)的優(yōu)點(diǎn)是可以解決鑒別器的損失函數(shù)(比如,提高照片的質(zhì)量)難以設(shè)置的問題。 

經(jīng)典的GAN訓(xùn)練結(jié)果樣例是臥室圖片以及人臉圖片:

 

先前我們討論了自動(dòng)編碼(Sketch-RNN),即將原始數(shù)據(jù)編碼成一個(gè)潛在的表示形式。生成器的工作原理也是一樣的。 

使用向量生成圖像的想法在這個(gè)項(xiàng)目中的人臉生成樣例中有很好的體現(xiàn)。你可以通過改變向量來觀察人臉是如何改變的。 

 

同樣的算法也適用于潛空間:

“戴眼鏡的男人”-“男人”+“女人”= “戴眼鏡的女人”

 

3.6:通過GANS改變臉部年齡 

如果在訓(xùn)練過程中,你賦予潛向量一個(gè)被控參數(shù),那么當(dāng)你生成該向量時(shí),你就可以通過改變它來管理圖片中必需的圖像了。這種方法稱為條件GAN(conditional GAN)。 

“Face Aging With Conditional Generative Adversarial Networks.” 的作者們就是這樣做的。通過IMDB數(shù)據(jù)集中年齡已知的演員的照片來訓(xùn)練模型,研究人員們就有機(jī)會(huì)來改變他們的臉部年齡。 

 

 

3.7:專業(yè)照片 

谷歌又找到了一個(gè)GAN的趣味應(yīng)用——篩選并改善照片。GAN由專業(yè)圖片數(shù)據(jù)集訓(xùn)練而來:生成器要改善不盡人意的照片),而鑒別器要做到區(qū)分“改善后的”照片和真實(shí)的專業(yè)照片。 

訓(xùn)練好的算法通過谷歌街景全景尋找最佳的構(gòu)圖,同時(shí)獲得一些專業(yè)的、半專業(yè)質(zhì)量的圖片。(根據(jù)攝像師的等級) 

 

 

 

3.8:通過文本描述生成圖像 

一個(gè)令人印象深刻的GANs的例子是通過文本生成圖像。

 

這項(xiàng)研究的作者提出不僅要將文本嵌入生成器(條件GAN)的輸入中,還要嵌入到鑒別器中,以便驗(yàn)證文本和圖片的相關(guān)性。為了確保鑒別器能夠?qū)W習(xí)并執(zhí)行預(yù)期的功能,除了正常的訓(xùn)練過程,他們還添加了錯(cuò)誤描述真實(shí)圖片的文本及相應(yīng)圖片,并一起投入訓(xùn)練。

 

3.9:Pix2pix 

2016年度引人注目的文章之一是BAIR的“Image-to-Image Translation with Conditional AdversarialNetworks” 。研究人員解決了由圖像生成圖像的問題,比如當(dāng)需要由衛(wèi)星圖像生成地圖或者通過草圖繪制物體的真實(shí)紋理。

 

這是條件GAN的又一個(gè)出色表現(xiàn)的例子。在這個(gè)例子中,條件由整個(gè)圖片決定。圖像分割中的熱門技術(shù)UNet被用來作為生成器的結(jié)構(gòu),新提出的PatchGAN分類器被用來作為鑒別器以防圖像難以區(qū)分。(圖片被分割為N小塊,每一塊的真假分別預(yù)測) 

Christopher Hesse做了一個(gè)貓的演示,這個(gè)演示引起了用戶對Pix2pix的極大興趣。

 

3.10:CycleGAN 

為了應(yīng)用Pix2pix,你需要來自不同領(lǐng)域的對應(yīng)成對的圖片數(shù)據(jù)集。比如,在這種情況下,通過紙牌來生成這樣的數(shù)據(jù)集并不是件難事兒。然而,如果你想做些更復(fù)雜的,像“改變”圖片中的物體或圖片風(fēng)格,從原則上來講這樣的數(shù)據(jù)集無法獲取。 

因此,Pix2pix的作者們繼續(xù)深入思考并提出了CycleGAN來實(shí)現(xiàn)不同領(lǐng)域圖片之間的轉(zhuǎn)換而不需要明確的匹配——“Unpaired Image-to-Image Translation.”

 

CycleGAN的思路是訓(xùn)練兩對生成器-鑒別器來把圖像從一個(gè)領(lǐng)域轉(zhuǎn)變到另一個(gè)領(lǐng)域再轉(zhuǎn)變回來,這樣的話需要保證周期一致性——在一系列的轉(zhuǎn)變之后,要得到與原始L1損失相近的圖像。周期損失則是保證生成器轉(zhuǎn)變后的圖片不會(huì)與原始圖片完全不相關(guān)。

 

 

這個(gè)方法能讓你把馬變成斑馬:

 

這樣的轉(zhuǎn)變并不穩(wěn)定,經(jīng)常會(huì)出現(xiàn)失敗案例:

 

3.11:腫瘤分子的發(fā)展 

機(jī)器學(xué)習(xí)同樣在醫(yī)藥領(lǐng)域大展身手。除了超聲波圖像、核磁共振圖像和診斷識(shí)別外,機(jī)器學(xué)習(xí)還可以用于尋找新的抗癌藥物。 

我們曾經(jīng)報(bào)道過該研究的詳細(xì)內(nèi)容。簡單來說就是在對抗自編碼器(AEE)的幫助下,可以得到分子的潛在表示并用以尋找新的分子?;诖?,已有69種新分子被發(fā)現(xiàn),約有35種已經(jīng)投入到對抗癌癥的使用中,其余的分子也擁有巨大潛力。

 

3.12:對抗性攻擊 

很多學(xué)者都對對抗性攻擊這個(gè)主題展開了積極探索。什么是對抗性攻擊?舉個(gè)例子,在ImageNet上訓(xùn)練得到的標(biāo)準(zhǔn)網(wǎng)絡(luò)在受到特殊噪聲影響的圖片上進(jìn)行分類會(huì)變得十分不穩(wěn)定。在下面的例子中可以看到,人眼觀察到經(jīng)過噪聲影響的圖像與原始圖像相比基本沒有變化,但是模型卻出現(xiàn)預(yù)測錯(cuò)誤的問題。

 

模型的穩(wěn)定通過FGSM算法已經(jīng)實(shí)現(xiàn):通過調(diào)節(jié)模型的參數(shù),可以朝著期望類別的方向改變一個(gè)或多個(gè)梯度步長,并且改變原始圖片。 

Kaggle上的一個(gè)項(xiàng)目就與此相關(guān):參賽者需要?jiǎng)?chuàng)造萬能的攻擊/防御圖片,最終決出誰是最好的。 

為什么還應(yīng)該研究攻擊呢?第一,如果我們想要保護(hù)自己的產(chǎn)品,可以在驗(yàn)證碼上添加噪聲來阻止垃圾信息傳播者自動(dòng)識(shí)別它們。第二,算法逐漸融入到我們的生活中——人臉識(shí)別和自動(dòng)駕駛。這時(shí)候,攻擊者就可以利用算法的弱點(diǎn)了。 

下面是一個(gè)特殊眼鏡欺騙人臉識(shí)別系統(tǒng)并“冒充他人”的例子。因此,在訓(xùn)練模型的時(shí)候我們應(yīng)該把可能遭受的攻擊納入考慮范圍內(nèi)。

 

這樣處理后的指示牌也是無法正確識(shí)別的。 

4. 強(qiáng)化學(xué)習(xí) 

強(qiáng)化學(xué)習(xí)是機(jī)器學(xué)習(xí)中最有意思且最有活力的發(fā)展路徑之一。 

這種路徑的核心在于學(xué)習(xí)agent的成功行為,而這基于一個(gè)通過經(jīng)驗(yàn)給予獎(jiǎng)勵(lì)的環(huán)境,就和人類通過他們的生活學(xué)習(xí)一樣。

 

強(qiáng)化學(xué)習(xí)被積極應(yīng)用于游戲、機(jī)器人和系統(tǒng)控制中(比如交通系統(tǒng)) 

當(dāng)然很多人都已經(jīng)聽說“阿法狗”在比賽中戰(zhàn)勝了頂級的職業(yè)選手。研究人員使用“加強(qiáng)學(xué)習(xí)”訓(xùn)練機(jī)器人,機(jī)器人通過自己的演練,來提升自己的策略。 

4.1:強(qiáng)化訓(xùn)練與不受控制的輔助任務(wù) 

在過去的幾年里,DeepMind已經(jīng)學(xué)會(huì)了使用深度強(qiáng)化學(xué)習(xí)來玩游戲,甚至比人類玩得更好。目前,算法已經(jīng)學(xué)會(huì)玩更復(fù)雜的游戲,比如Doom。 

大部分的注意力集中于加速學(xué)習(xí),因?yàn)樵谂c環(huán)境的交互作用下,agent的經(jīng)驗(yàn)需要在modern GPUs上進(jìn)行大量訓(xùn)練。 

在他的博客中,Deepmind報(bào)告說,引入額外的損耗(輔助任務(wù)),比如預(yù)測幀的變化(像素控制),使agent更好地理解行為的結(jié)果,從而顯著加快學(xué)習(xí)速度。

 

在OpenAI中,他們通過虛擬環(huán)境中的人已經(jīng)積極研究出了agent的培養(yǎng)方式,與現(xiàn)實(shí)生活相比較而言,這對于實(shí)驗(yàn)來說更安全。 

在其中一項(xiàng)研究中,研究小組展示了one-shot learning的可能性:一個(gè)人在虛擬現(xiàn)實(shí)中展示如何執(zhí)行一項(xiàng)特定的任務(wù),而一個(gè)演示足以讓算法學(xué)會(huì)它,然后在實(shí)際情況下進(jìn)行復(fù)制。 

 

4.2:學(xué)習(xí)人類的偏好 

OpenAI和DeepMind都在這個(gè)問題上進(jìn)行了研究探索。項(xiàng)目的底線是每一個(gè)agent有一個(gè)任務(wù),該算法為人提供兩種可能的解決方案,并指出哪一個(gè)更好。這個(gè)過程迭代重復(fù),并且從人學(xué)習(xí)如何解決這個(gè)問題的過程中得到900位反饋(二進(jìn)制標(biāo)記)。

 

在訓(xùn)練過程中,有一個(gè)問題需要認(rèn)真思考 - 我們正在教給機(jī)器什么。例如,計(jì)算機(jī)決定該算法真的想要獲取這個(gè)對象,但實(shí)際上,他只是模擬了這個(gè)動(dòng)作。

 

4.3:在復(fù)雜環(huán)境中的運(yùn)動(dòng) 

還有另一項(xiàng)來自DeepMind的研究。教機(jī)器人復(fù)雜的行為(行走、跳躍等),甚至做得和人類很相似。你必須大量地參與到損耗功能的選擇中,這將鼓勵(lì)期望的行為。然而,如果算法自己能通過簡單的獎(jiǎng)勵(lì)來學(xué)習(xí)復(fù)雜行為,就更好了。 

研究人員成功地做到了這一點(diǎn):他們通過構(gòu)建一個(gè)帶有障礙物的復(fù)雜環(huán)境以及用簡單的獎(jiǎng)勵(lì)來教agent(身體模擬器)完成復(fù)雜的動(dòng)作,促進(jìn)運(yùn)動(dòng)的進(jìn)展。

 

通過視頻你可以看到機(jī)器人已經(jīng)做得很好了。 

5. 其它 

5.1:冷卻數(shù)據(jù)中心 

在2017年7月,谷歌宣稱他們利用Deep Mind在機(jī)器學(xué)習(xí)開發(fā)中的優(yōu)勢成果,來減少其數(shù)據(jù)中心的能源損耗。 

基于來自數(shù)據(jù)中心的上千個(gè)傳感器所傳遞的信息,谷歌的開發(fā)人員編寫了一個(gè)模型來預(yù)測PUE(能源使用效率)以及更高效的數(shù)據(jù)中心管理模式。該項(xiàng)目意義深遠(yuǎn)。

 

5.2:全能模型 

訓(xùn)練模型在任務(wù)與任務(wù)間的轉(zhuǎn)換很差,每一個(gè)任務(wù)都需要特定的模型加以對應(yīng),在一篇題為“萬能模型”的文章中提到,谷歌大腦的模型在適用的普遍性上已小有成就。 

論文鏈接:https://arxiv.org/abs/1706.05137 

研究人員已經(jīng)編寫了一個(gè)可以在不同領(lǐng)域(文本、語音和圖像)執(zhí)行8個(gè)任務(wù)的模型。例如,翻譯不同的語言,文本解析,圖像和聲音識(shí)別。 

為了實(shí)現(xiàn)這一點(diǎn)他們搭建了一個(gè)復(fù)雜的網(wǎng)絡(luò)架構(gòu),并利用不同的模塊處理輸入的數(shù)據(jù)和生成的結(jié)果。編碼與解碼的模塊主要有三種類型:卷積、attention、混合專家系統(tǒng)。 

 

 

主要成果:獲得了近乎完美的模型(作者沒有對超參數(shù)進(jìn)行微調(diào))。 

不同領(lǐng)域間的知識(shí)轉(zhuǎn)換,也就是說,在擁有充分?jǐn)?shù)據(jù)的項(xiàng)目預(yù)測中,模型表現(xiàn)很穩(wěn)定。 

不同任務(wù)所需要的模塊之間不僅不會(huì)相互干擾而且還會(huì)彼此增益,比如MoE用于 Imagenet 任務(wù)。 

順便說一下,這個(gè)模型存出現(xiàn)于T2T之中…… 

5.3:一小時(shí)學(xué)習(xí)Imagenet 

在他們的帖子里,F(xiàn)acebook的工作人員告訴我們,他們的工程師們僅用一個(gè)小時(shí)內(nèi)就能在Imagenet上教授resnet - 50模型。這需要256個(gè)gpu(特斯拉P100)的集群。 

他們使用Gloo和caffe2來進(jìn)行分布式學(xué)習(xí)。為了使過程有效,必須要大量的整學(xué)習(xí)策略 (8192個(gè)元素):梯度平均、預(yù)熱階段、特殊學(xué)習(xí)速率等。 

因此,當(dāng)從8擴(kuò)展到256 GPU時(shí),可以達(dá)到90%的效率。現(xiàn)在,來自Facebook的研究人員可以更快進(jìn)行實(shí)驗(yàn)。 

6. 新聞 

6.1:自動(dòng)駕駛汽車 

自動(dòng)駕駛汽車領(lǐng)域正在快速發(fā)展,也進(jìn)入了積極的測試階段。最近行業(yè)內(nèi)的大事件主要有Intel MobilEye的收購,Uber和谷歌前雇員盜取技術(shù)的丑聞,使用自動(dòng)駕駛儀造成的第一起死亡事故。 

谷歌Waymo正在推出一個(gè)beta程序。谷歌是該領(lǐng)域的先驅(qū),技術(shù)廣受認(rèn)可,他們的汽車已經(jīng)累計(jì)行駛了超過300萬英里。 

最近美國各州已經(jīng)允許自動(dòng)駕駛汽車運(yùn)行上路了 

6.2:醫(yī)療保健 

機(jī)械學(xué)習(xí)正在被引入醫(yī)學(xué)。例如,谷歌與醫(yī)療中心合作幫助病患診斷。 

 

Deepmind甚至建立了一個(gè)獨(dú)立的業(yè)務(wù)單元。 

今年,在“Data Science Bowl”的項(xiàng)目下,舉辦了一項(xiàng)獎(jiǎng)金為100萬美元競賽,競賽內(nèi)容是以高清圖像為基礎(chǔ),對肺癌一年內(nèi)的發(fā)病率進(jìn)行預(yù)測。 

6.3:投資 

就像之前大量資本進(jìn)入大數(shù)據(jù)產(chǎn)業(yè)一樣,機(jī)器學(xué)習(xí)也在投資界受到熱捧。 

中國在人工智能領(lǐng)域投資1500億美元,成為該領(lǐng)域的先驅(qū)。 

我們看一組對比數(shù)據(jù)。百度研究院雇傭了1300人,在同領(lǐng)域臉書只雇了80個(gè)。 

學(xué)習(xí)“機(jī)器學(xué)習(xí)”永遠(yuǎn)不會(huì)算太晚。無論如何,隨著時(shí)間的推移,所有開發(fā)人員都將使用機(jī)器學(xué)習(xí),這將成為一項(xiàng)通用技能,就像今天大家都會(huì)使用數(shù)據(jù)庫一樣。 

原文鏈接:https://blog.statsbot.co/deep-learning-achievements-4c563e034257  

 

責(zé)任編輯:龐桂玉 來源: THU數(shù)據(jù)派
相關(guān)推薦

2018-02-04 14:44:11

2018-02-25 06:52:17

2021-09-22 13:53:45

網(wǎng)絡(luò)安全安全交易

2011-12-08 09:26:02

IT圈五件大事

2018-02-07 14:27:05

網(wǎng)絡(luò)安全 盤點(diǎn)

2010-01-09 12:22:49

企業(yè)安全服務(wù)應(yīng)用篇

2023-12-05 08:31:47

2015-12-28 15:18:31

2018-01-30 13:37:42

2018-02-05 00:25:05

2017-12-27 22:10:51

2022-01-05 16:49:53

加密貨幣比特幣貨幣

2020-12-25 15:34:35

AI 數(shù)據(jù)人工智能

2018-01-02 11:42:39

容器KubernetesDocker

2018-04-22 10:01:43

區(qū)塊鏈

2018-04-07 22:22:39

區(qū)塊鏈銀行業(yè)金融

2017-12-07 09:01:40

2010-03-02 11:10:42

2017-01-17 15:23:12

2017-03-17 11:37:30

互聯(lián)網(wǎng)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號