自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

炸場!DeepMind通用人工智能新突破:一套權(quán)重通吃視覺文本和決策

人工智能 新聞
只一個模型,使用相同的權(quán)重,不僅把看家本領(lǐng)雅達(dá)利游戲玩得飛起。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

通用人工智能,還得看DeepMind。

這回,只一個模型,使用相同的權(quán)重,不僅把看家本領(lǐng)雅達(dá)利游戲玩得飛起。

和人類聊聊天、看圖寫話也不在話下。

甚至還能在現(xiàn)實(shí)環(huán)境里控制機(jī)械臂,讓其聽從指令完成任務(wù)!

模型名為Gato,西班牙語中的“貓”。

按照DeepMind的說法,這只貓貓可以使用具有相同權(quán)重的同一個神經(jīng)網(wǎng)絡(luò),適應(yīng)各種不同的環(huán)境。

具體而言,DeepMind讓它在604個不同的任務(wù)上接受了訓(xùn)練,這些任務(wù)模式完全不同,需要觀察的元素和行為規(guī)則也不同。

而Gato不僅在450個任務(wù)中都超過了專家水平的50%,在23個雅達(dá)利游戲上表現(xiàn)還超過人類平均分。

DeepMind CEO哈薩比斯直接說:

這是我們目前最通用的智能體。

這一最新成果一發(fā)布,當(dāng)即就在AI圈子里掀起熱議。

有AI研究者指出:

Gato令人印象深刻。只需要在云上花費(fèi)5萬美元,就能完成對它的訓(xùn)練。

這點(diǎn)錢只是PaLM訓(xùn)練費(fèi)用1100萬美元的一個零頭。用PaLM的預(yù)算完全可以將Gato擴(kuò)展100倍,而這很可能是行之有效的。

PaLM是谷歌發(fā)布的5400億參數(shù)語言模型。

有人直接祭出了AlphaStar架構(gòu)和Gato架構(gòu)的對比:

Zoom AI杰出科學(xué)家Awni Hannun則直接感嘆起過去5周以來,谷歌/DeepMind釋出成果之密集。

所以這只來自DeepMind的“貓貓”,究竟怎么一回事?

一個Transformer搞定一切

對于研究方法,DeepMind只用一句話就解釋明白了:

我們受到語言大模型的啟發(fā),用類似的方法把模型能力拓展到文本之外的領(lǐng)域。

沒錯,這次立功的又是語言大模型中常用的Transformer架構(gòu)。

Transformer的本質(zhì)就是把一個序列轉(zhuǎn)換(transform)成另一個序列。

所以要想讓它掌握各種不同任務(wù),首先就需要把各類數(shù)據(jù)都編碼成序列。

文本自不必說,天然就是序列信息,可用經(jīng)典的SentencePiece編碼。

圖像,ViT已經(jīng)打好樣,先按16x16像素分割,再給每個像素編上號處理成序列。

玩游戲時的按鍵輸入同樣是序列,屬于離散值,比如懂得都懂的“上上下下左右左右BABA”。

操縱機(jī)器人時的傳感器信號和關(guān)節(jié)力矩屬于連續(xù)值,也通過一系列采樣和編碼處理成離散序列。

最終,所有序列數(shù)據(jù)都交給同一個Transformer處理。

整個Gato模型使用的訓(xùn)練數(shù)據(jù)總體上偏向游戲和機(jī)器人控制任務(wù),596個任務(wù)占了85.3%。視覺和自然語言任務(wù)只占14.7%。

模型架構(gòu)上,為了簡潔和可擴(kuò)展性,就在最經(jīng)典的原版Transformer基礎(chǔ)上小改,具體參數(shù)如下:

24層11.8億參數(shù)版的Gato,在谷歌16x16 Cloud TPUv3切片上訓(xùn)練了大約4天。

到了部署階段,Gato對于視覺和語言任務(wù)就像傳統(tǒng)Transformer和ViT那樣運(yùn)行。

對于游戲和機(jī)器人控制的行為模式則可以理解為“走一步看一步”。

首先給出一個任務(wù)提示,比如游戲操作或機(jī)器人動作,作為輸出序列的開頭。

接下來Gato會觀察當(dāng)前的環(huán)境,對動作向量進(jìn)行一次自回歸采樣,執(zhí)行動作后環(huán)境發(fā)生變化,再重復(fù)這個過程……

那么這樣訓(xùn)練出來的Gato,在各項(xiàng)任務(wù)中到底表現(xiàn)如何?

僅靠12億參數(shù)成為多面手

玩游戲方面,Gato的表現(xiàn)可以用一張圖來總結(jié)。

x軸是訓(xùn)練集之中專家水平的百分比,其中0代表一個隨機(jī)參數(shù)模型的水平。

y軸是Gato超過或達(dá)到對應(yīng)專家水平的任務(wù)數(shù)量。

最終結(jié)果,Gato在604個任務(wù)中,有450個超過了專家水平的50%。

更詳細(xì)的結(jié)果如下:

雅達(dá)利游戲測試中,Gato在23個游戲上表現(xiàn)超過人類平均分,11個游戲上比人類得分高一倍。

這些游戲包括經(jīng)典的乒乓球、賽車,也包括射擊、格斗等多種類型。

在Bengio團(tuán)隊(duì)推出的BabyAI測試上,Gato幾乎在所有關(guān)卡達(dá)到了專家水平的80%,最難的幾個Boss關(guān)達(dá)到75%。與之前BabyAI榜單上的兩個模型水平相當(dāng)(分別為77%和90%),但這兩個模型都針對性的用了上百萬個演示來訓(xùn)練。

△BabyAI關(guān)卡示例

在Meta-World上(虛擬環(huán)境中操作機(jī)械臂),Gato在全部45個任務(wù)中,有44個超過專家水平的50%,35個超過80%,3個超過90%。

△Meta-World任務(wù)示例

操縱真實(shí)機(jī)器人方面,與之前模型對比也不遑多讓。

至于視覺和文本任務(wù)DeepMind這次至少為了驗(yàn)證通用模型的可行性,沒有做跑分,而是給了一些示例。

△描述圖像

△聊天對話

最后,DeepMind還對Gato模型的可擴(kuò)展性做了評估。

雖然當(dāng)前Gato在每一個單獨(dú)任務(wù)上都還比不上SOTA結(jié)果,但實(shí)驗(yàn)結(jié)果表明,隨著參數(shù)、數(shù)據(jù)和硬件的增加,Gato模型的性能還有成比例上漲的空間。

另外,Gato在少樣本學(xué)習(xí)上也表現(xiàn)出一定潛力。

DeepMind認(rèn)為,這樣一個通用模型將來可通過提示或微調(diào)迅速學(xué)習(xí)新的任務(wù),再也不用為每個任務(wù)都重頭訓(xùn)練一個大模型了。

通用人工智能還有多遠(yuǎn)?

看完Gato如此表現(xiàn),網(wǎng)友們的“大受震撼”也就不奇怪了。

甚至還有人認(rèn)為,AGI(通用人工智能)近在眼前。

當(dāng)然,反對/質(zhì)疑的聲音也不小。

比如始終沖在給人工智能潑冷水一線的馬庫斯,這次也第一時間開了炮:

仔細(xì)看看第10頁。無論模型有多大,大型語言模型標(biāo)志性的不靠譜和錯誤信息仍然存在。

但不管怎么說,DeepMind在通用人工智能方向上的努力都在不斷涌現(xiàn)出新成果。

事實(shí)上,無論是2013年驚艷了谷歌的雅達(dá)利游戲AI,還是名滿全球的AlphaGo、AlphaStar,DeepMind透過這些階段性成果想要達(dá)成的終極目標(biāo),一直都通向通用人工智能這個關(guān)鍵詞。

去年,DeepMind首席研究科學(xué)家、倫敦大學(xué)學(xué)院教授David Silver還領(lǐng)銜發(fā)布了一篇同樣引起不少討論的文章:Reward is Enough。

論文認(rèn)為,強(qiáng)化學(xué)習(xí)作為基于獎勵最大化的人工智能分支,足以推動通用人工智能的發(fā)展。

而據(jù)Gato團(tuán)隊(duì)成員透露,這只“貓貓”已經(jīng)在DeepMind內(nèi)部孕育了2年時間。

此次Gato是以有監(jiān)督方式進(jìn)行離線訓(xùn)練的,但論文也強(qiáng)調(diào),原則上,同樣可以采用離線或在線強(qiáng)化學(xué)習(xí)的方式對其進(jìn)行訓(xùn)練。

而就在一周前,DeepMind發(fā)布了一個新視頻,其中說到:

我們接下來要做一件大事(the next big thing),那意味著需要去嘗試很多人們認(rèn)為過于困難的事情。但我們一定要去嘗試一下。

現(xiàn)在看來,這個next big thing就是指AGI了。

論文地址:https://www.deepmind.com/publications/a-generalist-agent

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2022-06-20 11:05:58

通用人工智能機(jī)器人

2022-07-04 15:29:59

人工智能機(jī)器計算機(jī)

2022-07-31 23:46:57

人工智能語言模型感知力

2023-07-10 10:36:17

人工智能AI

2024-01-16 10:22:23

人工智能大型語言模GPT 4

2023-02-28 15:21:37

人工智能AGI

2020-10-16 10:27:58

人工智能

2021-02-06 10:43:49

人工智能

2023-11-22 15:53:45

2019-06-13 18:03:26

人工智能互聯(lián)網(wǎng)識別

2024-05-30 09:55:05

人工智能AGI領(lǐng)域

2023-05-08 07:24:54

通用人工智能標(biāo)準(zhǔn)

2022-06-27 11:24:20

人工智能術(shù)語AI

2023-10-12 15:37:24

人工智能AGI

2024-03-14 08:00:00

人工智能生成式對抗網(wǎng)絡(luò)網(wǎng)絡(luò)釣魚

2023-05-04 13:57:50

人工智能AGI圖靈

2022-07-25 14:10:07

人工智能金融語言

2024-04-10 08:40:18

2025-02-14 16:08:19

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號