自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Jeff Dean談2020年機器學習趨勢:多任務(wù)和多模態(tài)會有大進展

新聞 機器學習
2020年,機器學習將會往何處去?加拿大溫哥華舉辦的NeurIPS期間,在接受外媒VB采訪時,Jeff Dean交出了自己的展望。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

2020年,機器學習將會往何處去?

加拿大溫哥華舉辦的NeurIPS期間,在接受外媒VB采訪時,Jeff Dean交出了自己的展望。

他認為,在多任務(wù)學習和多模態(tài)學習將會有很大進展,以及會出現(xiàn)更加有趣的設(shè)備,讓機器學習模型的作用更好地發(fā)揮出來。

此外,他還談到了如何利用機器學習構(gòu)建AI芯片、以及谷歌對BERT的看法等等。

作為谷歌AI的掌門人,他的思考對于從業(yè)者來說,有極大的參考價值。量子位編譯如下:

[[285607]]

談BERT:大家有點過分強調(diào)SOTA了

問:對BERT來說,今年是重要的一年。到處都是 BERT,還有各種各樣的 BERT。BERT有什么變化?接下來會有什么樣的變化?

Jeff Dean:BERT很有趣,是因為它建立在其他研究成果的進展之上。他在某種程度上取決于一年前完成的Transformer工作。

Transformer的工作,實際上是在處理早期基于LSTM的序列模型看到的問題。我認為,整個研究線索在實際生產(chǎn)機器學習模型方面非常有成效。

現(xiàn)在讓我們?nèi)ヌ幚砀訌?fù)雜的NLP任務(wù),我們能夠做得更多。在一堆/任意文本上,對預(yù)訓(xùn)練的BERT進行微調(diào),對于許多 NLP 問題來說,這是一個很好的范例,我們希望能解決這些問題。

因此在谷歌內(nèi)部,我們也在自己的產(chǎn)品中看到了不同的應(yīng)用場景,比如我們最近在搜索引擎中應(yīng)用了BERT來提高搜索質(zhì)量。

我認為,你也應(yīng)該在更加廣泛場景中看到了這一點。我們?nèi)匀幌M吹?,能做更多上下文的模型?/p>

就像現(xiàn)在,BERT和其他模型在數(shù)百個單詞文本上工作得很好,但在上萬個單詞上就很難處理好了。

這是一個有趣的方向。我認為多模態(tài)模型非常有趣??梢杂糜腥さ姆绞綄⑽谋九c圖像、音頻或視頻結(jié)合起來。

[[285608]]

我們已經(jīng)在這方面做了一些工作,社區(qū)的其他成員也做了一些工作,但我認為這在未來會變得更加重要。我相信,人們會基于BERT進行改進。

因此,基礎(chǔ)研究也將繼續(xù)下去。

問:是的,我看到了很多MT-DNN、 RoBERTta之類的東西。

Jeff Dean:是的,它們每個都有一個可愛的名字。但我確實認為,大家有點過分強調(diào)在某些特定問題上取得前所未有的、稍微好一點的、最先進的結(jié)果。

以及對完全不同的解決問題的方法有點缺乏欣賞。因為很難,這些方法可能沒有達到最先進的水平,但它們是一個非常值得探索的領(lǐng)域。

問:比如魯棒性?

Jeff Dean:是的,或者“是認為用完全不同的方式來解決一個問題很重要,并看到了希望”。如果人們追求這些方向,那將會很有趣。

問:而不是試圖登上GLUE排行榜的榜首?

Jeff Dean:是的。

[[285609]]

談AI芯片:后摩爾定律時代,專用芯片很有效

問:在后摩爾定律的世界里,需要記住哪些東西?

Jeff Dean:用專門的芯片而不是用CPU來做非通用的計算,已經(jīng)被證明非常有效。

比如TPU或者GPU,雖然有很多限制,但它們是圍繞著機器學習計算需要做什么而設(shè)計的,相對于通用GPU,這帶來了很大的性能優(yōu)勢。

因此,我們很難看到過去那種算力的大幅度增長,但我們正在通過專業(yè)化,來獲得更大的架構(gòu)優(yōu)勢。

問:對機器學習在創(chuàng)建機器學習硬件方面的應(yīng)用,你能詳細說說嗎?

Jeff Dean:在將機器學習用到ASIC芯片設(shè)計方面,我們已經(jīng)做了一些早期工作,尤其是晶體管布局和它們?nèi)绾芜B接的。

基本上,現(xiàn)在在設(shè)計過程中,已經(jīng)有一些工具可以幫助布局,但也需要有人工布局和布線專家,來完成多次迭代。

從你想要的設(shè)計開始,到把它放在一個芯片上,并在面積、功率和導(dǎo)線長度方面有正確的限制,同時還要滿足所有設(shè)計規(guī)劃或制作工藝,這通常需要一個多星期的時間。

所以事實證明,在一些工作中,我們可以使用機器學習來做更多的自動布局和布線。

我們基本上可以有一個機器學習模型,去針對特定芯片玩ASIC放置的游戲。我們內(nèi)部一直在試驗的一些芯片上,這也取得了不錯的結(jié)果。

[[285610]]

談2020年:多任務(wù)學習和多模態(tài)學習會有大進展

問:你認為在2020年人工智能領(lǐng)域會出現(xiàn)哪些趨勢或里程碑?

Jeff Dean:我認為,在多任務(wù)學習和多模態(tài)學習方面會有很大進展,解決更多的問題。我覺得那會很有趣。

而且我認為,將會有越來越有效的設(shè)備(手機或其他類型的設(shè)備)出現(xiàn),來讓模型更有效地發(fā)揮作用。

此外,與人工智能原則相關(guān)的工作顯然是重要的。但對于谷歌來說,我們是一個足夠大的研究機構(gòu),我們有很多不同的推動力,很難說只有一個。

但總的來說,我們將進一步發(fā)展最先進的技術(shù),進行基礎(chǔ)的基礎(chǔ)研究,以提高我們在許多重要領(lǐng)域的能力,比如NLP、語言模型或多模態(tài)的東西。

同時,我們也會與我們的同事和產(chǎn)品團隊合作,為產(chǎn)品應(yīng)用做一些研究,使他們能夠構(gòu)建有趣的功能和產(chǎn)品。

我們將做一些谷歌目前還沒有,但用了機器學習會很有趣的應(yīng)用,比如我們一直在做的芯片設(shè)計工作。

問:比如日常的機器人?

Jeff Dean:是的,我們在機器人研究方面做了大量的工作。我認為,讓機器人在某種隨意的環(huán)境中工作,真的是一個很難解決的問題。

但在過去的幾年里,我們在這方面也取得了相當大的進展,我認為這也是一個有趣的研究方向。我們正在努力推進。

 

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2022-01-12 16:23:16

機器學習MLAI

2021-01-17 23:03:15

機器學習開源人工智能

2022-05-30 10:42:14

模型谷歌數(shù)據(jù)

2023-05-28 23:26:16

多模態(tài)機器學習大腦

2020-03-23 11:56:44

人工智能

2020-02-11 14:10:18

機器學習人工智能設(shè)計

2020-12-03 08:01:42

機器學習人工智能AI

2020-12-08 13:42:41

機器學習人工智能

2019-11-20 15:36:23

人工智能AI機器學習

2019-12-02 14:48:43

技術(shù)互聯(lián)網(wǎng)網(wǎng)絡(luò)

2021-01-18 10:52:55

谷歌AI人工智能

2020-06-04 07:00:00

機器學習人工智能Python

2011-05-24 09:16:47

OSGiEclipse

2020-02-06 16:15:04

機器學習人工智能計算機

2020-05-20 07:00:00

機器學習人工智能AI

2019-12-22 23:50:22

網(wǎng)絡(luò)SD-WANWi-Fi 6

2020-02-02 19:24:01

人工智能區(qū)塊鏈大數(shù)據(jù)

2019-09-29 14:58:45

物聯(lián)網(wǎng)邊緣計算5G

2023-01-13 15:31:31

2025-01-08 08:21:16

點贊
收藏

51CTO技術(shù)棧公眾號