自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

單張圖像就可以訓(xùn)練GAN!Adobe改良圖像生成方法 | 已開源

新聞 人工智能
數(shù)據(jù)集太小了,無法訓(xùn)練GAN?試試從單個(gè)圖像入手吧。去年谷歌就提出了SinGAN,是第一個(gè)拿GAN在單幅自然圖像學(xué)習(xí)的非條件生成模型(ICCV 2019最佳論文)。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

數(shù)據(jù)集太小了,無法訓(xùn)練GAN?試試從單個(gè)圖像入手吧。

去年谷歌就提出了SinGAN,是第一個(gè)拿GAN在單幅自然圖像學(xué)習(xí)的非條件生成模型(ICCV 2019最佳論文)。

而最近,來自Adobe和漢堡大學(xué)的研究人員,對這個(gè)方法做了改進(jìn),探討了幾種讓GAN在單幅圖像提高訓(xùn)練和生成能力的機(jī)制。

研究人員將改進(jìn)的模型稱作ConSinGAN

單張圖像就可以訓(xùn)練GAN!Adobe改良圖像生成方法 | 已開源

那么,先來看下ConSinGAN的效果吧。

單張圖像就可以訓(xùn)練GAN!Adobe改良圖像生成方法 | 已開源

上圖左側(cè)是用來訓(xùn)練的單個(gè)圖像,右側(cè)是利用ConSinGAN訓(xùn)練后生成的復(fù)雜全局結(jié)構(gòu)。

可以看出效果還是比較逼真。

當(dāng)然,ConSinGAN還可以用來處理許多其他任務(wù),例如圖像超分辨率( image super-resolution)、圖像動(dòng)畫(image animation),以及圖像去霧(image dehazing)。

下面兩張就是它在圖像協(xié)調(diào)(image harmonization)和圖像編輯(image editing)上的效果。

單張圖像就可以訓(xùn)練GAN!Adobe改良圖像生成方法 | 已開源
單張圖像就可以訓(xùn)練GAN!Adobe改良圖像生成方法 | 已開源

ConSinGAN是怎么做到的呢?

訓(xùn)練架構(gòu)優(yōu)化:并行的SinGAN

首先,我們先來看下SinGAN的訓(xùn)練過程。

SinGAN在圖像中訓(xùn)練幾個(gè)單獨(dú)的生成網(wǎng)絡(luò),下圖便是第一個(gè)生成器,也是唯一從隨機(jī)噪聲生成圖像的無條件生成器。

單張圖像就可以訓(xùn)練GAN!Adobe改良圖像生成方法 | 已開源
在SinGAN中訓(xùn)練的第一個(gè)生成器

這里的判別器從來不將圖像看做一個(gè)整體,通過這種方法,它就可以知道“真實(shí)的”圖像補(bǔ)丁(patch)是什么樣子。

這樣,生成器就可以通過生成,在全局來看不同,但僅從補(bǔ)丁來看卻相似的圖像,來達(dá)到“欺詐”的目的。

在更高分辨率上工作的生成器,將前一個(gè)生成器生成的圖像作為輸入,在此基礎(chǔ)上生成比當(dāng)前還要高分辨率的圖像。

所有的生成器都是單獨(dú)訓(xùn)練的,這意味著在訓(xùn)練當(dāng)前生成器時(shí),所有以前的生成器的權(quán)重都保持不變。

這一過程如下圖所示。

單張圖像就可以訓(xùn)練GAN!Adobe改良圖像生成方法 | 已開源

而在Adobe與漢堡大學(xué)的研究人員發(fā)現(xiàn),在給定的時(shí)間內(nèi)僅能訓(xùn)練一個(gè)生成器,并將圖像(而不是特征圖)從一個(gè)生成器傳輸?shù)较乱粋€(gè)生成器,這就限制了生成器之間的交互。

因此,他們對生成器進(jìn)行了端到端的訓(xùn)練,也就是說,在給定時(shí)間內(nèi)訓(xùn)練多個(gè)生成器,每個(gè)生成器將前一個(gè)生成器生成的特征(而不是圖像)作為輸入。

這也就是ConSinGAN名字的由來——并行的SinGAN,過程如下圖所示。

單張圖像就可以訓(xùn)練GAN!Adobe改良圖像生成方法 | 已開源

然而,采取這樣的措施又會(huì)面臨一個(gè)問題,也就是過擬合。這意味著最終的模型不會(huì)生成任何“新”圖像,而是只生成訓(xùn)練圖像。

為了防止這種現(xiàn)象發(fā)生,研究人員采取了2個(gè)措施:

  • 在任意給定時(shí)間內(nèi),只訓(xùn)練一部分生成器;
  • 對不同的生成器采用不同的學(xué)習(xí)率(learning rate)。

下圖就展示了使用這兩種方法實(shí)現(xiàn)的模型。默認(rèn)情況下,最多同時(shí)訓(xùn)練3個(gè)生成器,并對較低的生成器,分別將學(xué)習(xí)率調(diào)至1/10和1/100。

單張圖像就可以訓(xùn)練GAN!Adobe改良圖像生成方法 | 已開源

在這個(gè)過程中,有一個(gè)有趣的現(xiàn)象。

如果對較低的生成器采用較高的學(xué)習(xí)率,那么生成的圖像質(zhì)量會(huì)高些,但是差異性較弱。

相反,如果對較低的生成器采用較小的學(xué)習(xí)率,那么生成圖像的差異性會(huì)豐富一些。如下圖所示。

單張圖像就可以訓(xùn)練GAN!Adobe改良圖像生成方法 | 已開源

代碼已開源

ConSinGAN的代碼已經(jīng)在GitHub上開源。

老規(guī)矩,先介紹一下運(yùn)行所需要的環(huán)境:Python 3.5;Pytorch 1.1.0。

安裝也非常簡單:

  1. pip install -r requirements.txt 

若要使用論文中的默認(rèn)參數(shù)訓(xùn)練模型:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/angkorwat.jpg 

在英偉達(dá)GeForce GTX 1080Ti上訓(xùn)練一個(gè)模型大約需要20-25分鐘。

不同的學(xué)習(xí)率和訓(xùn)練階段數(shù)量,會(huì)影響實(shí)驗(yàn)的結(jié)果,研究人員推薦二者的默認(rèn)值分別是0.1和6。

當(dāng)然也可以修改學(xué)習(xí)率:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/colusseum.jpg --lr_scale 0.5 

修改訓(xùn)練階段的數(shù)量:

  1. python main_train.py --gpu 0 --train_mode generation --input_name Images/Generation/colusseum.jpg --train_stages 7 

當(dāng)然,模型也可以用來處理“圖像協(xié)調(diào)”和“圖像編輯”等任務(wù),詳情可參閱GitHub。

傳送門

論文地址:
https://arxiv.org/pdf/2003.11512.pdf

GitHub項(xiàng)目地址:
https://github.com/tohinz/ConSinGAN

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-05-06 11:12:22

圖像處理數(shù)學(xué)計(jì)算NumPy

2022-02-25 10:28:30

人工智能圖像模型

2022-03-23 10:07:00

Adobe人像訓(xùn)練

2020-10-04 13:12:53

開源技術(shù) 數(shù)據(jù)

2021-03-24 15:29:48

Python 開發(fā)編程語言

2023-12-18 08:57:22

GAN網(wǎng)絡(luò)

2021-11-02 09:25:00

AI 數(shù)據(jù)人工智能

2020-06-15 14:18:05

數(shù)據(jù)平臺架構(gòu)

2022-10-17 07:16:08

SQL機(jī)器學(xué)習(xí)AI

2023-03-22 11:06:32

2025-02-24 13:40:00

模型生成訓(xùn)練

2018-07-19 06:07:22

物聯(lián)網(wǎng)安全物聯(lián)網(wǎng)IOT

2025-03-14 12:03:29

2022-02-28 17:57:44

云遷移云計(jì)算

2018-11-27 09:21:41

負(fù)載均衡機(jī)器Session

2017-02-13 09:33:32

2022-02-28 22:58:04

云遷移IT開發(fā)

2021-03-01 14:05:50

機(jī)器學(xué)習(xí)人工智能計(jì)算機(jī)

2015-07-10 11:18:19

2020-11-19 08:00:03

打工人離職工作
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號