自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌AI編舞師,能聽音樂來十種freestyle,想看爵士or芭蕾?

新聞 人工智能
Transformer又又接新活了——這次谷歌用它搞了一個(gè)會(huì)根據(jù)音樂跳舞的AI。

 [[424946]]

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

Transformer又又接新活了——

這次谷歌用它搞了一個(gè)會(huì)根據(jù)音樂跳舞的AI。

話不多說,先讓它給大家來幾段freestyle(原視頻見文末地址):

我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?
我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?
我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?
我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?

嗯,動(dòng)作還挺美觀,各種風(fēng)格也駕馭住了。

看著我都想跟著來一段。

你pick哪個(gè)?

而這個(gè)AI也憑借著對(duì)音樂和舞蹈之間的關(guān)聯(lián)的深刻理解,打敗了3個(gè)同類模型取得SOTA,登上了ICCV 2021。

我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?

另外,除了代碼開源,研究團(tuán)隊(duì)還隨之一起公開了一個(gè)含有10種類型的3D舞蹈動(dòng)作數(shù)據(jù)集。

我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?

心動(dòng)的,搞起來搞起來!

這個(gè)freestyle怎么來?

前面咱們不是說,這個(gè)AI用了Transformer嗎?

但這里的Transformer不是普通的Transformer,它是一個(gè)基于完全注意力機(jī)制(Full-Attention)的跨模態(tài)Transformer,簡稱FACT。

為什么要搞這么復(fù)雜?

因?yàn)檠芯咳藛T發(fā)現(xiàn),光用單純的Transformer并不能讓AI理解音樂和舞蹈之間的相關(guān)性

[[424951]]

所以,這個(gè)FACT是怎么做的呢?

總的來說,F(xiàn)ACT模型采用了獨(dú)立的動(dòng)作和音頻transformer。

首先輸入2秒鐘的seed動(dòng)作序列和一段音頻,對(duì)其進(jìn)行編碼。

我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?

然后將embedding(從語義空間到向量空間的映射)連接起來,送入跨模態(tài)transformer學(xué)習(xí)兩種形態(tài)的對(duì)應(yīng)關(guān)系,并生成n個(gè)后續(xù)動(dòng)作序列。

這些序列再被用來進(jìn)行模型的自監(jiān)督訓(xùn)練。

其中3個(gè)transformer一起學(xué)習(xí),采用的是不用預(yù)處理和特征提取,直接把原始數(shù)據(jù)扔進(jìn)去得到最終結(jié)果的端到端的學(xué)習(xí)方式。

另外就是在自回歸框架中進(jìn)行模型測試,將預(yù)期運(yùn)動(dòng)作為下一代階段的輸入。

最終,該模型可以逐幀地生成一段(long-range)舞蹈動(dòng)作。

下圖則展示了該模型通過同一段種子動(dòng)作(嘻哈風(fēng)格)、不同音樂生成了四種舞蹈作品(霹靂舞、爵士芭蕾、Krump和Middle Hip-hop)。

有沒有懂行的點(diǎn)評(píng)一下?

我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?

而為了讓AI生成的舞蹈生動(dòng)且和音樂風(fēng)格保持一致,這個(gè)模型設(shè)計(jì)里面有3個(gè)關(guān)鍵點(diǎn)

1、模型內(nèi)部token可以訪問所有輸入,因此三個(gè)transformer都使用一個(gè)完全注意力mask。這使得它比傳統(tǒng)的因果模型更具表現(xiàn)力。

2、不止預(yù)測下一個(gè),該模型還預(yù)測N個(gè)后續(xù)動(dòng)作。這有助于模型關(guān)注上下文,避免在幾個(gè)生成步驟后出現(xiàn)動(dòng)作不銜接和跑偏的情況。

3、此外,在訓(xùn)練過程的前期還用了一個(gè)12層深的跨模態(tài)transformer模塊來融合兩個(gè)embedding(音頻和動(dòng)作)。研究人員表示,這是訓(xùn)練模型傾聽分辨輸入音樂的關(guān)鍵。

下面就用數(shù)據(jù)來看看真實(shí)性能。

打敗3個(gè)SOTA模型

研究人員根據(jù)三個(gè)指標(biāo)來評(píng)估:

1、動(dòng)作質(zhì)量:用FID來計(jì)算樣本(也就是他們自己發(fā)布的那個(gè)數(shù)據(jù)集,后面介紹)和生成結(jié)果在特征空間之間的距離。一共用了40個(gè)模型生成的舞蹈序列,每個(gè)序列1200幀(20秒)。

FID的幾何和動(dòng)力學(xué)特性分別表示為FIDg和FIDk。

2、動(dòng)作多樣性:通過測量40套生成動(dòng)作在特征空間中的平均歐氏距離(Euclidean distance)得出。

分別用幾何特征空間Distg和動(dòng)力學(xué)特征空間k來檢驗(yàn)?zāi)P蜕筛鞣N舞蹈動(dòng)作的能力。

3、動(dòng)作與音樂的相關(guān)性:沒有好的已有指標(biāo),他們自己提出了一個(gè)“節(jié)拍對(duì)齊分?jǐn)?shù)”來評(píng)估輸入音樂(音樂節(jié)拍)和輸出3D動(dòng)作(運(yùn)動(dòng)節(jié)拍)之間的關(guān)聯(lián)。

下面是FACT和三種SOTA模型(Li等人的、Dancenet、Dance Revolution)的對(duì)比結(jié)果:

我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?

可以看到,F(xiàn)ACT在三項(xiàng)指標(biāo)上全部KO了以上三位。

*由于Li等人的模型生成的動(dòng)作不連續(xù),所以它的平均動(dòng)力學(xué)特征距離異常高,可以忽略。

看了數(shù)據(jù),咱們?cè)倏磦€(gè)更直觀的:

我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?

emmm,相比動(dòng)作靈活的FACT,其他兩位看起來都有點(diǎn)“不太聰明”的亞子……

我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?

舞蹈動(dòng)作數(shù)據(jù)集AIST++

最后,再來簡單介紹一下他們自己打造的這個(gè)3D舞蹈動(dòng)作數(shù)據(jù)集AIST++。

看名字你也發(fā)現(xiàn)了,這是基于現(xiàn)有的舞蹈數(shù)據(jù)集AIST的“加強(qiáng)版”,主要是在原有基礎(chǔ)上加上了3D信息。

最終的AIST++一共包含5.2小時(shí)、1408個(gè)序列的3D舞蹈動(dòng)作,跨越十種舞蹈類型,包括老派和新派的的霹靂舞、Pop、 Lock、Waack,以及Middle Hip-Hop、LA-style Hip-Hop、House、Krump、街頭爵士和爵士芭蕾,每種舞蹈類型又有85%的基本動(dòng)作和15%的高級(jí)動(dòng)作。

(怎么感覺全是街舞?。浚?/p>

每個(gè)動(dòng)作都提供了9個(gè)相機(jī)視角,下面展示了其中三個(gè)。

它可以用來支持以下三種任務(wù):多視角的人體關(guān)鍵點(diǎn)估計(jì);人體動(dòng)作預(yù)測/生成;人體動(dòng)作和音樂之間的跨模態(tài)分析。

團(tuán)隊(duì)介紹

一作李瑞龍,UC伯克利一年級(jí)博士生,UC伯克利人工智能研究室成員,F(xiàn)acebook Reality Labs學(xué)生研究員。

研究方向是計(jì)算機(jī)視覺和計(jì)算機(jī)圖形學(xué)的交叉領(lǐng)域,主要為通過2D圖像信息生成和重建3D世界。

讀博之前還在南加州大學(xué)視覺與圖形實(shí)驗(yàn)室做了兩年的研究助理。

本科畢業(yè)于清華大學(xué)物理學(xué)和數(shù)學(xué)專業(yè)、碩士畢業(yè)于計(jì)算機(jī)專業(yè),曾在Google Research和字節(jié)AI Lab實(shí)習(xí)。

共同一作Yang Shan,就職于Google Research。

研究方向包括:應(yīng)用機(jī)器學(xué)習(xí)、多模態(tài)感知、3D計(jì)算機(jī)視覺與物理仿真。

博士畢業(yè)于北卡羅來納大學(xué)教堂山分校(UNC,美國8所公立常春藤大學(xué)之一)。

David A. Ross,在Google Research領(lǐng)導(dǎo)Visual Dynamics研究小組。

加拿大多倫多大學(xué)機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺專業(yè)博士畢業(yè)。

Angjoo Kanazawa,馬里蘭大學(xué)博士畢業(yè),現(xiàn)在是UCB電氣工程與計(jì)算機(jī)科學(xué)系的助理教授,在BAIR領(lǐng)導(dǎo)旗下的KAIR實(shí)驗(yàn)室,同時(shí)也是Google Research的研究員。

最最后,再來欣賞一遍AI編舞師的魅力吧:

我,谷歌AI編舞師,能聽音樂來10種freestyle,想看爵士or芭蕾?

論文:
https://arxiv.org/abs/2101.08779
GitHub:
https : //github.com/google-research/mint
數(shù)據(jù)集:
https://google.github.io/aistplusplus_dataset/
項(xiàng)目主頁:
https://google.github.io/aichoreographer/

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2022-05-17 09:33:52

FreeDOS聽音樂Linux

2022-07-26 10:13:11

LinuxGNOMERhythmbox

2014-07-21 13:04:34

代碼

2020-03-09 10:00:35

人工智能機(jī)器學(xué)習(xí)技術(shù)

2017-12-11 16:25:25

2024-04-26 11:18:57

人工智能風(fēng)險(xiǎn)網(wǎng)絡(luò)安全

2024-07-09 15:46:56

2020-11-26 20:54:23

AI人工智能建筑

2022-08-26 16:44:40

智慧城市AI人工智能

2024-06-25 11:16:17

2023-05-22 11:59:54

2019-12-09 18:34:00

飛利浦SN503

2023-07-19 11:19:37

AI項(xiàng)目人工智能

2024-07-03 15:39:56

2023-05-15 15:29:13

設(shè)計(jì)模式JavaScript

2022-04-19 14:51:44

人工智能開源數(shù)據(jù)

2021-02-19 23:45:36

人工智能農(nóng)業(yè)機(jī)器學(xué)習(xí)

2010-09-07 13:12:17

2024-11-13 13:20:44

2023-05-08 15:21:41

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)