自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI視頻「閃爍」難題攻破!輕松改變視頻風格,北大校友一作

人工智能 新聞
無論是拍視頻還是制作動畫,依靠的都是“關鍵幀”。如果幀與幀之間聯(lián)系不緊密,就會出現(xiàn)這種詭異的“閃爍畫風”。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯(lián)系出處。

AI拍視頻,竟然已經(jīng)絲滑到這個程度了嗎?

輸入一段視頻,念上一段“咒語”,AI瞬間就能秒懂,并當場給你把視頻重畫一遍:

圖片

不僅完美hold住各類風格,最關鍵的是,幀幀絲滑流暢。

就連建筑物這種細節(jié)較多的視頻,也幾乎看不出“AI出品”的bug:

圖片

目前,無論是拍視頻還是制作動畫,依靠的都是“關鍵幀”。如果幀與幀之間聯(lián)系不緊密,就會出現(xiàn)這種詭異的“閃爍畫風”——

圖片

而這也是AI生成視頻最大的瓶頸之一。

現(xiàn)在,來自南洋理工大學的團隊,終于解決了這個問題,研究在推特上掀起了不小熱度:

圖片

那么,這究竟是如何做到的?

如何讓AI拍的視頻不“閃爍”?

AI生成視頻會“閃爍”,本質上是前后幀不連貫導致的。

舉個例子,這是同一個視頻中截取的兩幀畫面:

圖片

用AI根據(jù)這兩幀“重繪”圖像,乍一看問題不大,細節(jié)上卻有不少差異。

例如,一幀生成的人物頭上有“金色發(fā)帶”,另一幀中卻消失了:

圖片

這樣一來,看似AI生成的幾十幀圖像風格差不多,連起來細節(jié)差異卻非常大,視頻也就容易出現(xiàn)閃爍現(xiàn)象:

圖片

為此,研究人員提出了一種新框架,,核心是提升AI生成視頻時幀與幀之間的連貫性。

這個框架包含關鍵幀翻譯(key frame translation)和完整視頻翻譯(full video translation)兩部分。

第一部分基于擴散模型生成關鍵幀,基于跨幀約束加強這些關鍵幀之間的一致性;第二部分則通過基于時間感知的匹配算法將其他幀與關鍵幀“連接”起來。

框架的核心,在于第一部分。

研究人員給這部分提出了一種新的分層跨幀一致性約束方法,在原視頻基礎上,利用光流來約束幀與幀之間的關系。

其中,第一幀相當于整個視頻的“錨點”,用于控制視頻的整體走向;后續(xù)的每一幀,則都會以前一幀作為參考,防止生成的圖像偏離最初的風格、形狀、紋理和顏色等。

至于視頻生成模型,核心采用的則是Stable Diffusion+ControlNet的組合,但經(jīng)過了改進。

如下圖所示,紅色虛線是原本Stable Diffusion等擴散模型采樣過程,黑色線條則是經(jīng)過調整后的過程:

圖片

當然,在不同的采樣階段,跨幀約束也不一樣,包括形狀感知、像素感知等。

相比之前的AI視頻生成模型,這個框架最大的優(yōu)勢在于,當輸入一個新視頻的時候,它不需要再用這個視頻材料重新進行訓練,換而言之就是零樣本學習。

只需要輸入一段提示詞+一段視頻,框架就能自動將視頻“翻譯”出你想要的效果。

例如,這是團隊利用改進后的框架,重新生成的一段相同風格視頻,和改進前的擴散模型相比,幾乎看不出閃爍了:

圖片

14秒生成一張關鍵幀

所以,生成一段視頻是否需要很長時間?

至少從生成幀的效率來看,速度還是不慢的,其中關鍵幀和Stable Diffusion出圖的速度差不多,平均在14.23秒左右;非關鍵幀就非??炝?,每幀只需要1.49秒

圖片

如果視頻不長、甚至只有十幾幀的話,不到一分鐘就能搞定一段視頻的轉換。

作者們將這個新框架和之前的幾類文生視頻框架進行了對比,包括FateZero、vid2vid-zero、Pxi2Video和Text2Video-Zero等,顯然新框架目前是最流暢、鬼影也最少的:

圖片

不僅僅是單純的“視頻翻譯”,作者們還展示了提示詞對于視頻生成的控制效果。

例如在相同輸入下,只要更改一段提示詞中的“關鍵字”,AI就能在幾乎不改動其他元素的情況下,生成一段新的視頻,例如換個發(fā)型、換種風格,或是將狗頭換成狐貍頭:

圖片

除此之外,作者們還請來了23名志愿者,對新框架生成的視頻質量進行了綜合評分,評估指標有三個,分別是提示詞和輸入幀的關聯(lián)度、時間一致性和視頻整體質量。

結果顯示,這個框架在“人類評分”中均取得了不錯的水平:

圖片

一作北大校友

四位作者均來自南洋理工大學。

圖片

一作楊帥,南洋理工大學助理教授,本科和博士畢業(yè)于北京大學,目前的研究方向是基于人像的編輯、文本風格化、圖像翻譯等。

周弈帆,南洋理工大學研究工程師,本科畢業(yè)于北京理工大學,拿過ACM-ICPC金牌,研究方向包括文本挖掘、基于機器學習重建入射光場等。

劉子緯,南洋理工大學助理教授,香港中文大學博士,研究方向是計算機視覺、機器學習和計算機圖形學等。

Chen Change Loy,南洋理工大學和香港中文大學副教授,他的研究興趣集中在計算機視覺和深度學習方向,包括圖像、視頻恢復和生成,以及表征學習等。

目前這個項目的代碼還沒開源,不過論文表示“會有的”。

圖片

實測效果如何,我們可以期待一波。

項目地址:https://anonymous-31415926.github.io/

論文地址:https://arxiv.org/abs/2306.07954

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-10-16 12:31:17

人工智能數(shù)據(jù)

2023-07-17 09:21:12

Meta模型

2023-07-03 10:34:13

2021-01-15 09:30:36

算法技術數(shù)據(jù)

2021-11-22 09:39:21

深度學習神經(jīng)網(wǎng)絡人工智能

2021-11-19 10:13:01

模型人工智能計算

2023-07-26 14:35:12

論文方法

2024-09-04 13:19:16

2024-09-18 10:32:00

AI智能體模型

2020-11-27 17:57:08

AI 數(shù)據(jù)人工智能

2025-04-15 08:50:00

2020-08-24 14:25:02

AI 數(shù)據(jù)人工智能

2024-11-05 14:40:00

智能體AI

2023-07-28 14:49:00

黑盒優(yōu)化機器學習

2020-06-29 16:42:41

人工智能

2024-10-28 07:20:00

AI模型

2025-02-19 08:29:27

2024-11-04 08:45:00

2023-11-20 22:02:54

開源模型

2024-02-19 14:03:38

數(shù)據(jù)訓練
點贊
收藏

51CTO技術棧公眾號