自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過程

新聞 人工智能
僅僅根據(jù)兩張圖片,AI處理了一下,便能生成整個(gè)運(yùn)動(dòng)過程。

 本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

先給一張側(cè)臉(關(guān)鍵幀1):

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過程

再給一張正臉(關(guān)鍵幀2):

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過程

然后僅僅根據(jù)這兩張圖片,AI處理了一下,便能生成整個(gè)運(yùn)動(dòng)過程

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過程

而且不只是簡單的那種,連在運(yùn)動(dòng)過程中的眨眼動(dòng)作也“照顧”得很到位。

效果一出,便在Reddit上引發(fā)了不少熱議:

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過程

僅需2個(gè)關(guān)鍵幀,如何實(shí)現(xiàn)完整運(yùn)動(dòng)?

不需要冗長的訓(xùn)練過程。

不需要大量的訓(xùn)練數(shù)據(jù)集。

這是論文作者對本次工作提出的兩大亮點(diǎn)。

具體而言,這項(xiàng)工作就是基于關(guān)鍵幀將視頻風(fēng)格化。

先輸入一個(gè)視頻序列 I ,它由N個(gè)幀組織,每一幀都有一個(gè)掩膜Mi來劃分感興趣的區(qū)域。

與此前方法不同的是,這種風(fēng)格遷移是以隨機(jī)順序進(jìn)行的,不需要等待順序靠前的幀先完成風(fēng)格化,也不需要對來自不同關(guān)鍵幀的風(fēng)格化內(nèi)容進(jìn)行顯式合并。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過程

也就是說,該方法實(shí)際上是一種翻譯過濾器,可以快速從幾個(gè)異構(gòu)的手繪示例 Sk 中學(xué)習(xí)風(fēng)格,并將其“翻譯”給視頻序列 I 中的任何一幀。

這個(gè)圖像轉(zhuǎn)換框架基于 U-net 實(shí)現(xiàn)。并且,研究人員采用基于圖像塊 (patch-based)的訓(xùn)練方式和抑制視頻閃爍的解決方案,解決了少樣本訓(xùn)練和時(shí)間一致性的問題。

而為了避免過擬合,研究人員采用了基于圖像塊的訓(xùn)練策略。

從原始關(guān)鍵幀(Ik)中隨機(jī)抽取一組圖像塊(a),在網(wǎng)絡(luò)中生成它們的風(fēng)格化對應(yīng)塊(b)。

然后,計(jì)算這些風(fēng)格化對應(yīng)塊(b)相對于從風(fēng)格化關(guān)鍵幀(Sk)中取樣對應(yīng)圖像塊的損失,并對誤差進(jìn)行反向傳播。

這樣的訓(xùn)練方案不限于任何特定的損失函數(shù)。本項(xiàng)研究中,采用的是L1損失、對抗性損失和VGG損失的組合。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過程

另一個(gè)問題便是超參數(shù)的優(yōu)化。

這是因?yàn)椴划?dāng)?shù)某瑓?shù)可能會導(dǎo)致推理質(zhì)量低下。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過程

研究人員使用網(wǎng)格搜索法,對超參數(shù)的4維空間進(jìn)行采樣:Wp——訓(xùn)練圖像塊的大小;Nb——一個(gè)batch中塊的數(shù)量;α——學(xué)習(xí)率;Nr——ResNet塊的數(shù)量。

對于每一個(gè)超參數(shù)設(shè)置:

(1)執(zhí)行給定時(shí)間訓(xùn)練;

(2)對不可見幀進(jìn)行推理;

(3)計(jì)算推理出的幀(O4)和真實(shí)值(GT4)之間的損失。

而目標(biāo)就是將這個(gè)損失最小化。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過程

團(tuán)隊(duì)介紹

這項(xiàng)研究一作為Ondřej Texler,布拉格捷克理工大學(xué)計(jì)算機(jī)圖形與交互系的博士生。

[[397471]]

而除了此次的工作之外,先前他和團(tuán)隊(duì)也曾做過許多有意思的工作。

例如一邊畫著手繪畫,一邊讓它動(dòng)起來。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過程

再例如給一張卡通圖片,便可讓視頻中的你頂著這張圖“聲情并茂”。

僅需2張圖,AI便可生成完整運(yùn)動(dòng)過程

想了解更多有趣的研究,可戳下方鏈接。

參考鏈接:

[1]https://www.reddit.com/r/MachineLearning/comments/n3b1m6/r_fewshot_patchbased_training_siggraph_2020_dr/
[2]https://ondrejtexler.github.io/patch-based_training/index.html

 

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2022-05-09 11:15:05

RocketMQPULL 模式PUSH 模式

2023-02-20 09:58:35

模型3D

2025-04-01 08:15:00

漏洞安全報(bào)告企業(yè)安全

2009-09-02 15:37:26

Windows 7Windows XP操作系統(tǒng)

2023-01-05 13:13:18

2024-08-01 20:08:17

2024-07-10 12:41:40

數(shù)據(jù)訓(xùn)練

2025-02-11 10:48:08

2025-03-11 08:37:42

2022-08-19 14:46:16

視覺框架

2015-10-12 17:55:26

云計(jì)算運(yùn)維運(yùn)維技能

2011-07-28 10:34:38

Cocoa 程序 啟動(dòng)

2014-06-23 10:31:09

Android啟動(dòng)過程

2011-09-05 17:35:18

MTK啟動(dòng)過程RTOS

2011-10-11 09:39:24

Web

2024-06-24 09:35:52

圖像代碼

2011-08-17 16:16:29

iPhone應(yīng)用程序啟動(dòng)過程

2009-05-05 11:06:19

存儲技術(shù)藍(lán)寶石高數(shù)據(jù)存儲

2011-06-28 13:27:13

ARM Linux
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號