自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI逆向繪畫火了!一鍵重繪梵高《星空》,來自華盛頓大學(xué)

人工智能
通過學(xué)習(xí)真實(shí)藝術(shù)家的繪畫視頻,結(jié)合文本和區(qū)域理解來定義繪畫 “指令”,并使用基于擴(kuò)散的渲染器更新畫布,從而生成類似于人類藝術(shù)家繪畫過程的視頻。

梵高名作也能被AI逆向破解了?!

直接喂一張?jiān)瓐D,AI就能化身梵高·本高一點(diǎn)點(diǎn)重繪整張圖畫(原圖可任意)。

仔細(xì)對(duì)照兩邊,AI幾乎實(shí)現(xiàn)了1:1復(fù)刻,還為我們這些繪畫小白清晰展示了整幅圖的構(gòu)建過程。

這項(xiàng)魔法來自華盛頓大學(xué),項(xiàng)目名為Inverse Painting,相關(guān)論文已入選SIGGRAPH Asia 2024,其中兩位作者還是東北大學(xué)(Bowei Chen )和上??萍即髮W(xué)(Yifan Wang)的校友。

圖片圖片

項(xiàng)目一經(jīng)發(fā)布后即在Reddit引起熱議,最高贊更是為藝術(shù)家群體操起了心(doge)。

藝術(shù)家可能會(huì)對(duì)此感到憤怒

圖片圖片

圖片圖片

不過也有人表示,這對(duì)于人們學(xué)習(xí)如何繪畫非常有幫助。

圖片圖片

甚至可以用來“破解”一些大師遺作,提取隱藏或失傳的技術(shù)。

圖片圖片

基于擴(kuò)散模型

從原圖→繪畫過程延時(shí)視頻,Inverse Painting采用基于擴(kuò)散的逆繪畫方法。

通過學(xué)習(xí)真實(shí)藝術(shù)家的繪畫視頻,結(jié)合文本和區(qū)域理解來定義繪畫 “指令”,并使用基于擴(kuò)散的渲染器更新畫布,從而生成類似于人類藝術(shù)家繪畫過程的視頻。

圖片圖片

進(jìn)一步拆解,這一過程主要包括以下步驟:

  • 學(xué)習(xí)藝術(shù)家的繪畫過程。收集了294個(gè)丙烯酸風(fēng)景畫繪畫過程視頻(平均時(shí)長(zhǎng)9分鐘),并進(jìn)行視頻幀分割、裁剪和篩選等預(yù)處理操作,讓模型學(xué)習(xí)繪畫過程;
  • 定義繪畫指令。基于對(duì)畫作不同元素(比如天空、樹木、人物等)以及元素相互關(guān)系的理解,模型會(huì)生成一組“繪畫指令”,告訴模型應(yīng)該先畫什么,后畫什么;
  • 使用擴(kuò)散模型。用擴(kuò)散模型生成逼真圖像,并逐步在畫布上添加細(xì)節(jié),就像藝術(shù)家繪畫時(shí)一樣;
  • 文本和區(qū)域理解。模型還會(huì)生成文本指令和區(qū)域掩碼,前者告訴模型要繪制的內(nèi)容,后者用來指定內(nèi)容的確切位置;
  • 逐步渲染。從一個(gè)空白畫布開始,逐步生成完整繪畫過程;
  • 時(shí)間控制。為了模擬真實(shí)世界中藝術(shù)家的繪畫速度,模型還會(huì)考慮每步之間的時(shí)間間隔;

這些步驟整體可歸為兩階段訓(xùn)練+測(cè)試,如下所示:

圖片圖片

第一階段:指令生成(Instruction Generation)

這個(gè)階段主要生成兩個(gè)關(guān)鍵指令集,文本指令生成器(Text Instruction Generator)和區(qū)域掩碼生成器(Mask Instruction Generator)。

前者通過比較目標(biāo)畫作和當(dāng)前畫布的狀態(tài),生成一個(gè)簡(jiǎn)短的文本指令,比如“畫天空”或“加花朵”,以此決定下一步應(yīng)該添加哪些元素。

后者是一個(gè)二進(jìn)制圖像,指明了畫布上應(yīng)該更新哪些部分。

兩者一結(jié)合,確保模型只在畫布上合適的區(qū)域進(jìn)行繪制。

△生成的文本指令△生成的文本指令

第二階段:畫布渲染(Canvas Rendering)

接下來使用第一階段生成的指令來更新畫布。

利用文本指令和區(qū)域掩碼,以及當(dāng)前畫布的圖像和目標(biāo)畫作,一個(gè)基于擴(kuò)散的渲染器被用來更新畫布。

這個(gè)渲染器采用了一種叫做“去噪擴(kuò)散概率模型”的技術(shù),它逐步從噪聲圖像中去除噪音,以生成連續(xù)的圖像幀。

總之,渲染器在更新畫布時(shí)會(huì)考慮多種條件信號(hào),包括文本指令、區(qū)域掩碼、時(shí)間間隔,以及目標(biāo)畫作和當(dāng)前畫作的特征。

這些條件信號(hào)幫助渲染器更準(zhǔn)確地模擬人類藝術(shù)家的繪畫風(fēng)格和過程。

圖片圖片

測(cè)試(Test-Time Generation)

在測(cè)試階段,模型使用訓(xùn)練好的管道從頭開始生成一幅畫作。

這里主要有兩個(gè)關(guān)鍵:

  • 自回歸過程。每一步都依賴于前一步生成的結(jié)果,以此生成一個(gè)連貫的繪畫過程;
  • 固定時(shí)間間隔。在每一步之間采用固定時(shí)間來更新畫布,模擬真實(shí)繪畫過程中的時(shí)間流逝;

最終,與三個(gè)基線方法(Timecraft、Paint Transformer、Stable Video Diffusion)相比,其生成結(jié)果明顯更優(yōu)。

圖片圖片

同時(shí),相關(guān)變體也取得了SOTA結(jié)果。

圖片圖片

其中兩位作者為華人

簡(jiǎn)單介紹下項(xiàng)目作者,一共5位,其中兩位是華人。

圖片圖片

Bowei Chen (陳柏維),本科就讀于國(guó)內(nèi)東北大學(xué)軟件工程專業(yè)(2016年入學(xué)),后分別在卡內(nèi)基梅隆大學(xué)機(jī)器人研究所和華盛頓大學(xué)攻讀碩博。

研究興趣為計(jì)算機(jī)視覺和圖形學(xué)的交叉點(diǎn),重點(diǎn)是圖像和視頻生成。

圖片圖片

Yifan Wang,本科就讀于上??萍即髮W(xué)計(jì)算機(jī)專業(yè),今年剛獲得華盛頓大學(xué)CS博士學(xué)位。

個(gè)人主頁(yè)顯示了多段工作經(jīng)歷(含字節(jié)、谷歌、Adobe等),目前是Meta Reality Labs Research的一名研究科學(xué)家。

圖片圖片

實(shí)際上,這個(gè)團(tuán)隊(duì)進(jìn)行的AI逆向繪畫之前也有,網(wǎng)友們還提到了Paints Undo這個(gè)項(xiàng)目。

當(dāng)時(shí)主要應(yīng)用于動(dòng)漫領(lǐng)域,短短3個(gè)月已在GitHub攬星3.3K。

圖片圖片

對(duì)于這事兒,人們一直褒貶不一,最大爭(zhēng)議在于人們擔(dān)心有人會(huì)利用AI謊稱作者。

畢竟通過講解藝術(shù)思路是作者證明作品原創(chuàng)性的手段之一。

圖片圖片

甚至對(duì)于它能教人們學(xué)繪畫這事兒,也有網(wǎng)友以自身經(jīng)歷出來反駁:

目前不太符合真實(shí)繪畫過程

圖片圖片

圖片圖片

所以,有了解繪畫的童鞋來說說看嗎?

參考鏈接:
[1]https://inversepainting.github.io/[2]https://www.reddit.com/r/singularity/comments/1fybddi/inverse_painting_can_generate_timelapse_videos_of/


責(zé)任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2021-09-22 09:25:38

AI 數(shù)據(jù)人工智能

2022-11-09 15:41:47

人工智能小程序視頻

2024-11-20 14:30:00

AI圖片

2015-02-09 15:25:52

換膚

2016-12-08 20:18:00

算法可視化代碼

2023-12-25 12:49:09

訓(xùn)練模型

2024-07-05 14:29:49

2023-03-31 09:30:21

ChatGPT論文

2022-10-28 12:18:18

AI繪畫自拍

2025-01-17 10:30:00

Adobe生成式AI工具

2025-04-01 00:00:22

數(shù)據(jù)場(chǎng)景競(jìng)品

2015-11-03 15:29:49

ONOS開放網(wǎng)絡(luò)操作系統(tǒng)SDN

2011-08-04 17:36:24

iPhone 重繪 繪圖

2020-12-07 09:31:47

AI 谷歌人工智能

2024-01-04 17:03:48

微軟Windows

2023-05-06 08:23:36

ChatGPT自然語(yǔ)言技術(shù)

2025-04-17 04:00:00

2023-06-15 10:00:00

Jenkins任務(wù)操作
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)