自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

能生成Deepfake也能診斷癌癥,GAN與惡的距離

人工智能
GAN可能是最近人工智能圈為人熟知的技術之一,多受關注的當然是Deepfake(深度偽造),這款操作容易且效果完美的換臉應用,讓人們談“GAN”色變。

[[270043]]

大數據文摘出品

來源:floydhub

編譯:欒紅葉、張大筆茹、小七

GAN可能是最近人工智能圈為人熟知的技術之一。

但是它的爆火不僅是由于這個技術出神入化的好用,還因為由他催生的相關應用導致了各種倫理道德問題。

多受關注的當然是Deepfake(深度偽造),這款操作容易且效果完美的換臉應用,讓人們談“GAN”色變。

[[270044]]

朱茵的臉被換成了楊冪

而近期,Deepfake甚至有了升級版,走紅網絡的一鍵生成裸照軟件DeepNude,只要輸入一張完整的女性圖片就可自動生成相應的裸照,由于廣泛傳播而造成了預料之外的后果,開發(fā)者最終將APP下架。

[[270045]]

被一鍵脫衣的霉霉

相關技術引發(fā)了一系列社會后果,并且引發(fā)了政府立法部門的重視。2019年6月13日,美國眾議院情報委員會召開關于人工智能深度偽造的聽證會,公開談論了深度偽造技術對國家、社會和個人的風險及防范和應對措施。

讓人嗤之以鼻的同時,真正的研究者們也在用GAN推動人類社會的發(fā)展。據《MIT科技評論》報道,呂貝克大學研究人員近期剛剛利用deepfake背后同樣的技術,合成了與真實影像無異的醫(yī)學圖像,解決了沒有足夠的訓練數據的問題,而這些圖像將可以用于訓練AI通過X光影像發(fā)現(xiàn)不同的癌癥。

那么,技術本身就存在原罪么?又是哪里出了錯呢?

讓我們回到GAN誕生的那天,從頭回顧這一讓人又愛又恨的技術發(fā)展的前世今生。

GAN的誕生故事:一場酒后的奇思妙想

時間拉回到2014年的一晚,Ian Goodfellow和一個剛剛畢業(yè)的博士生一起喝酒慶祝。在蒙特利爾一個酒吧,一些朋友希望他能幫忙看看手頭上一個棘手的項目:計算機如何自己生成圖片。

研究人員已經使用了神經網絡(模擬人腦的神經元網絡的一種算法),作為生成模型來創(chuàng)造合理的新數據。但結果往往不盡人意。計算機生成的人臉圖像通常不是模糊不清,就是缺耳少鼻。

Ian Goodfellow朋友們提出的方案是對那些組成圖片的元素進行復雜的統(tǒng)計分析以幫助機器自己生成圖片。這需要進行大量的數據運算,Ian Goodfellow告訴他們這根本行不通。

邊喝啤酒邊思考問題時,他突然有了一個想法。如果讓兩個神經網絡相互對抗會出現(xiàn)什么結果呢?他的朋友對此持懷疑態(tài)度。

當他回到家,他女朋友已經熟睡,他決定馬上實驗自己的想法。那天他一直寫代碼寫到凌晨,然后進行測試。第一次運行就成功了!

那天晚上他提出的方法現(xiàn)在叫做GAN,即生成對抗網絡(generative adversarial network)。

[[270046]]

Goodfellow自己可能沒想到這個領域會發(fā)展得如此迅速,GAN的應用會如此廣泛。

下面我們先來看幾張照片。

如果你沒有親眼看到我去過的地方,那就可以認為這些照片完全是假的。

當然,我并不是說這些都是ps的或者CGI編輯過的,無論Nvidia稱他們的新技術是如何了得,那也只是圖片,不是真實的世界。

也就是說,這些圖像完全是用GPU計算層層疊加,并且通過燒錢生成的。

能夠做出這些東西的算法就是對抗生成網絡,對于那些剛開始學習機器學習的人而言,編寫GAN是一個漫長的旅途。在過去的幾年中,基于對抗生成網絡應用的創(chuàng)新越來越多,甚至比Facebook上發(fā)生的隱私丑聞還多。

2014年以來GANs不斷進行改進才有了如今的成就,但是要一項一項來回顧這個過程,就像是要重新看一遍長達八季的“權力的游戲”,非常漫長。所以,在此我將僅僅重溫這些年來GAN研究中一些酷炫成果背后的關鍵思想。

我不準備詳細解釋轉置卷積(transposed convolutions)和瓦瑟斯坦距離(Wasserstein distance)等概念。相反,我將提供一些我覺得比較好的資源鏈接,你可以使用這些資源快速了解這些概念,這樣你就可以看到它們在算法中是如何使用的。

下文的閱讀需要你掌握深度學習的基礎知識,并且知道卷積神經網絡的工作原理,否則讀起來可能會有點難度。

鑒于此,先上一張GAN發(fā)展路線圖:

GAN路線圖

圖中的過程我們將在下文一步一步地講解。讓我們先來看看內容大綱吧。 

  • GAN:Generative Adversarial Networks
  • DCGAN:Deep Convolutional Generative Adversarial Network
  • CGAN:Conditional Generative Adversarial Network
  • CycleGAN
  • CoGAN:Coupled Generative Adversarial Networks
  • ProGAN:Progressive growing of Generative Adversarial Networks
  • WGAN:Wasserstein Generative Adversarial Networks
  • SAGAN:Self-Attention Generative Adversarial Networks
  • BigGAN:Big Generative Adversarial Networks
  • StyleGAN:Style-based Generative Adversarial Networks

GAN:Generative Adversarial Networks

[[270048]]

看到這張圖你首先想到的是什么,是不是覺得這像素也太低了,還看得人難受,尤其是對于密集恐懼癥患者來說,這張圖片看起來像是某個數學書呆子在excel表中放大了一張縮小的照片。

我們來看看這圖片究竟是什么?

https://mp.weixin.qq.com/s?__biz=MjM5MTQzNzU2NA==&mid=2651672132&idx=1&sn=b18213b102733d1ce4bf4793db270a2c&chksm=bd4c69d78a3be0c134619102e0f4b9e64fcab0a71b496a381f2f5b12b0091da16b4b89df8847&mpshare=1&scene=23&srcid=#rd

看完視頻是不是發(fā)現(xiàn)除了Excel,其他都猜對了。

早在2014年,Ian Goodfellow提出了這個革命性的想法——讓兩個神經網絡互相競爭(或合作,這是一個視角問題)。

感興趣的同學可以查看Ian Goodfellow 提出GAN時的原文。

  • 論文鏈接:https://arxiv.org/abs/1406.2661
  • 代碼鏈接:https://github.com/goodfeli/adversarial
  • 作者相關論文鏈接:https://arxiv.org/abs/1701.00160

一個神經網絡試圖生成真實數據(注意:GAN可用于給任何數據分布建模,但近來其主要用于圖像),而另一個神經網絡則試圖判別真實數據和生成器網絡生成的數據。

生成器網絡使用判別器作為損失函數,并更新其參數以生成看起來更真實的數據。

另一方面,判別器網絡更新其參數以使其更好地從真實數據中鑒別出假數據,所以它這方面的工作會變得更好。

這就像貓和老鼠的游戲,持續(xù)進行,直到系統(tǒng)達到所謂的“平衡”,其中生成器能夠生成看起來足夠真實的數據,然后判別器則輕易就能正確判斷真假。

到目前為止,如果順利的話,你的代碼無誤,亞馬遜也沒有斃掉你的spot實例(順便說一句,如果使用FloydHub就不會出現(xiàn)這個問題,因為他們提供了備用的GPU機器),那么你現(xiàn)在就留下了一個能從同樣的數據分布中準確生成新數據的生成器,它生成的數據則可以成為你的訓練集。

這只是非常簡單的一種GAN。到此,你應該掌握GAN就是使用了兩個神經網絡——一個用于生成數據,一個是用來對假數據和真實數據進行判別。理論上,您可以同時訓練它們,然后不斷迭代,直至收斂,這樣生成器就可以生成全新的,逼真的數據。

DCGAN:Deep Convolutional Generative Adversarial Network

[[270049]]

  • 論文:https://arxiv.org/abs/1511.06434
  • 代碼:https://github.com/floydhub/dcgan
  • 其他文章:https://towardsdatascience.com/up-sampling-with-transposed-convolution-9ae4f2df52d0

看原文是非常慢的,看本文將為您節(jié)省一些時間。

先來看幾個公式:

卷積=擅長圖片

GANs=擅長生成一些數據

由此推出:卷積+GANs=擅長生成圖片

事后看來,正如Ian Goodfellow自己在與Lex Fridman的播客中指出的那樣,將這個模型稱為DCGAN(“深度卷積生成對抗網絡”的縮寫)似乎很愚蠢,因為現(xiàn)在幾乎所有與深度學習和圖像相關的內容都是深度的(deep)和卷積的(convolutional)。

此外,當大多數人了解到GANs時,都會先學習“深度學習和卷積”(deep and convolutional)。

然而,有一段時間GANs不一定會使用基于卷積的操作,而是依賴于標準的多層感知器架構。

DCGAN通過使用稱為轉置卷積運算(transposed convolution operation)來改變了這一現(xiàn)狀,它還有個不太好聽的名字——反卷積層( Deconvolution layer)。

轉置卷積是一種提升運算,它幫助我們將低分辨率圖像轉換為更高分辨率的圖像。

但是嚴格來說,如果您要掌握轉置卷積原理,只看上文介紹不夠,是需要深入研究鏈接里的資源,畢竟這是現(xiàn)代所有GAN架構的基礎。

如果你沒有足夠多的的時間來看,我們可以通過一個總結得很好的動畫來了解轉置卷積是如何工作:

在一般的卷積神經網絡中,你會用一系列卷積(以及其他操作)將圖像映射到通常是較低維度的向量。

類似地,運用多個反卷積允許我們映射出單個低分辨率的陣列,并使之成為鮮明的全彩圖像。

在我們繼續(xù)之前,讓我們嘗試使用GAN的一些獨特方法。

你現(xiàn)在的位置:紅色的X

CGAN:Conditional Generative Adversarial Network

 

  • 論文:https://arxiv.org/abs/1411.1784
  • 代碼:https://github.com/PacktPublishing/Advanced-Deep-Learning-with-Keras
  • 博客:https://wiseodd.github.io/techblog/2016/12/24/conditional-gan-tensorflow/

原始GAN根據隨機噪聲生成數據。這意味著你可以在此基礎上訓練它,比如狗的圖像,它會產生更多的狗的圖像。

您也可以在貓的圖像上訓練它,在這種情況下,它會生成貓的圖像。

您也可以在尼古拉斯·凱奇(Nicholas Cage)圖像上訓練它,在這種情況下,它會生成尼古拉斯·凱奇(Nicholas Cage)圖像。

你也可以在其他圖像上訓練它,以此類推。

但是,如果你試圖同時訓練狗和貓的圖像,它會產生模糊的半品種。

CGAN旨在通過只告訴生成器生成一個特定物種的圖像來解決這個問題,比如一只貓,一只狗或一個尼古拉斯·凱奇。

具體地來說,CGAN將單編碼向量yy連接到隨機噪聲向量zz,產生如下所示的體系結構:

現(xiàn)在,我們可以用同一個GAN同時生成貓和狗。

CycleGAN

論文:https://arxiv.org/abs/1703.10593v6

代碼:https://github.com/junyanz/CycleGAN

其他項目及文章:

  • https://junyanz.github.io/CycleGAN/
  • https://towardsdatascience.com/turning-fortnite-into-pubg-with-deep-learning-cyclegan-2f9d339dcdb0

GANs并不僅僅用于生成圖像。他們還可以創(chuàng)建“馬+斑馬”這樣的新生物,如上圖所示。

為了創(chuàng)建這些圖像,CycleGAN旨在解決“圖像到圖像”轉換的問題。

CycleGAN并不是一個推動藝術圖像合成的新GAN架構,相反,它是使用了GAN的智能方式。因此,您可以自由地將此技術應用于您喜歡的任何架構。

此時,我會建議你閱讀一篇論文(https://arxiv.org/abs/1703.10593v6)。寫得非常好,即使是初學者也很容易理解。

CycleGAN的任務是訓練一個網絡G(X)G(X),該網絡會將圖像從源域XX映射到目標域YY。

但是,你可能會問:“這與常規(guī)的深度學習或樣式遷移有什么不同。”

嗯,下面的圖片很好地總結了這個問題。CycleGAN將不成對的圖像進行圖像平移。這意味著我們正在訓練的圖像不必代表相同的東西。

如果我們有大量的圖像對:(圖像,達芬奇的繪畫圖像)(圖像,達芬奇繪畫圖像),那么訓練達芬奇的繪畫圖像就會(相對)容易一些。

不幸的是,這個家伙并沒有太多的畫作。

然而,CycleGAN可以在未配對的數據上進行訓練,所以我們不需要兩個相同的圖像。

另一方面,我們可以使用樣式遷移。但這只會提取一個特定圖像的風格并將其轉移到另一個圖像,這意味著我們無法轉化一些假設性事物,如將馬轉化為斑馬。

然而,CycleGAN會學習從一個圖像域到另一個域的映射。所以我們就說一下所有的莫奈畫作訓練。

他們使用的方法非常優(yōu)雅。CycleGAN由兩個生成器GG和FF,以及兩個判別器DXDX和DYDY組成。

GG從XX獲取圖像并嘗試將其映射到YY中的某個圖像。判別器 DYDY預測圖像是由GG生成還是實際在YY中生成。

類似地,F(xiàn)F從YY接收圖像并嘗試將其映射到XX中的某個圖像,而判別器DXDX 預測圖像是由FF生成還是實際上是在XX中。

所有的這四個神經網絡都是以通常的GAN方式進行訓練,直到我們留下了強大的生成器GG和FF,它們可以很好地執(zhí)行圖像到圖像的轉換任務,乃至愚弄了DYDY 和DXDX。

這種類型的對抗性損失聽起來是個好主意,但這還不夠。為了進一步提高性能,CycleGAN使用另一個度量標準,循環(huán)一致性損失。

一般來說,優(yōu)秀的轉換應該具備以下屬性,當你來回轉換時,你應該再次得到同樣的東西。

CycleGAN用巧妙的方式實現(xiàn)了這個想法,它迫使神經網絡遵守這些約束:

F(G(x))≈x,x∈XF(G(x))≈x,x∈X

G(F(y))≈y,y∈YG(F(y))≈y,y∈Y

在視覺上看,循環(huán)一致性如下所示:

總損失函數是以懲罰網絡不符合上述特性的方式構造的。我不打算在這里寫出這個損失函數,因為這會破壞它在文章中匯總的方式。

好的,七龍珠還沒有召喚完,讓我們回到我們找尋更好的GAN架構的主要任務。

CoGAN:Coupled Generative Adversarial Networks

[[270056]] 

  • 論文:https://arxiv.org/abs/1606.07536
  • 代碼:https://github.com/mingyuliutw/CoGAN
  • 博客:https://wiseodd.github.io/techblog/2017/02/18/coupled_gan/

你知道比一個GAN更好的網絡是什么嗎?兩個GAN!

CoGAN(即“Coupled Generative Adversarial Networks”,不要與CGAN混淆,后者代表的是條件生成對抗網絡)就是這樣做的。它會訓練兩個GAN而不是一個單一的GAN。

當然,GAN研究人員不停止地將此與那些警察和偽造者的博弈理論進行類比。所以這就是CoGAN背后的想法,用作者自己的話說就是:

在游戲中,有兩個團隊,每個團隊有兩個成員。生成模型組成一個團隊,在兩個不同的域中合作共同合成一對圖像,用以混淆判別模型。判別模型試圖將從各個域中的訓練數據分布中繪制的圖像與從各個生成模型中繪制的圖像區(qū)分開。同一團隊中,參與者之間的協(xié)作是根據權重分配約束建立的。

這樣就有了一個GAN的多人局域網競賽,聽起來不錯,但你怎么能讓它真正起作用呢?

事實證明這并不復雜,只需使網絡對某些層使用完全相同的權重。

在我認為(可能不太謙虛),關于CoGAN最酷的事情不是提高圖像生成質量,也不是你可以在多個圖像域中進行訓練的事實。

而是,事實上,你獲得兩張圖片的價格僅是之前的四分之三。

由于我們共享一些權重,因此CoGAN將比兩個單獨的GAN具有更少的參數(因此將節(jié)省更多的內存,計算和存儲)。

這是一種微妙技術,但是有點過時,所以我們今天看到的一些新GAN并不會使用這種技術。

不過,我認為這一想法會在未來再次得到重視。

ProGAN:Progressive growing of Generative Adversarial Networks

[[270057]]

論文:https://arxiv.org/abs/1710.10196

代碼:https://github.com/tkarras/progressive_growing_of_gans

其他文章及視頻:

  • https://towardsdatascience.com/progan-how-nvidia-generated-images-of-unprecedented-quality-51c98ec2cbd2
  • https://www.youtube.com/watch?v=G06dEcZ-QTg

訓練集GAN存在許多問題,其中最重要的是其不穩(wěn)定性。

有時,GAN的損失會發(fā)生振蕩,因為生成器和判別器會消除對方的學習。也有時,錯誤會在網絡收斂后立即發(fā)生,這時圖像就會看起來很糟糕。

ProGAN是一種通過逐步提高生成圖像的分辨率來使其訓練集穩(wěn)定的技術。

常識認為,生成4x4的圖像比生成1024x1024圖像更容易。此外,將16x16的圖像映射到32x32的圖像比將2x2圖像映射到32x32圖像更容易。

因此,ProGAN首先訓練4x4生成器和4x4判別器,并在訓練過程的后期添加相對應的更高分辨率的層。我們用一個動畫來總結一下:

WGAN:Wasserstein Generative Adversarial Networks

論文:https://arxiv.org/abs/1701.07875v3

代碼:https://github.com/eriklindernoren/Keras-GAN

其他資源:

  • http://www.depthfirstlearning.com/2019/WassersteinGAN
  • https://lilianweng.github.io/lil-log/2017/08/20/from-GAN-to-WGAN.html
  • https://www.alexirpan.com/2017/02/22/wasserstein-gan.html
  • https://medium.com/@jonathan_hui/gan-wasserstein-gan-wgan-gp-6a1a2aa1b490

這篇文獻可能是此列表中最具理論性和數學性的論文。作者在文中用了一卡車的證據、推論以及另一種數學術語。因此,如果積分概率計量和Lipschitz連續(xù)與你無關,我們也不會在這個上花太多時間。

簡而言之,WGAN('W'代表Wasserstein)提出了一個新的成本函數,這些函數在純數學家和統(tǒng)計學家中風靡一時。

這是GAN minimax函數的舊版本:

這是WGAN使用的新版本:

在大多數情況下,你需要知道WGAN函數是清除了舊的成本函數,該函數近似于稱為Jensen-Shannon散度的統(tǒng)計量,并在新的成本函數中滑動,使其近似于稱為1-Wasserstein距離的統(tǒng)計量。

看了下圖您就知道為什么要這么做。

當然,如果您感興趣的話,接下來的是對數學細節(jié)的快速回顧,這也是WGAN論文備受好評的原因。

最初的GAN論文里認為,當判別器是最優(yōu)的時,生成器以最小化Jensen-Shannon散度的方式更新。

如果你不太明白的話,Jensen-Shannon散度是一種衡量不同兩種概率分布的方法。JSD越大,兩個分布越“不同”,反之亦然。計算公式如下:

然而,把JSD最小化是最好的選擇嗎?

WGAN論文的作者認為可能不是。出于特殊原因,當兩個發(fā)行版完全不重疊時,可以顯示JSD的值保持為2log22log⁡2的常量值。

具有常量值的函數有一個梯度等于零,而零梯度是不好的,因為這意味著生成器完全沒有學習。

WGAN作者提出的備用距離度量是1-Wasserstein距離,也稱為搬土距離(EMD距離)。

“搬土距離”來源于類比,想象一下,兩個分布中的一個是一堆土,另一個是一個坑。

假設盡可能有效地運輸淤泥,沙子,松土等物品,搬土距離測量將土堆運輸到坑中的成本。這里,“成本”被認為是點之間的距離×土堆移動的距離×移動的土堆量。

也就是說(沒有雙關語),兩個分布之間的EMD距離可以寫成:

當inf是最小值時,xx和yy是兩個分布上的點,γγ是最佳運輸計劃。

可是,計算這個是很難的。于是,我們計算完全不同的另一個值:

這兩個方程式之間的聯(lián)系一開始似乎并不明顯,但通過一些稱為Kantorovich-Rubenstein二重性的復雜數學(試著快讀三次),可以證明這些Wasserstein / Earth mover距離的公式在試計算同樣的東西。

如果你跟不上我提供的鏈接中的的論文和博客文章中的一些重要的數學概念,也不要過于擔心。關于WGAN的大部分工作都是為一個簡單的想法提供一個復雜的理由。

SAGAN:Self-Attention Generative Adversarial Networks

論文:https://arxiv.org/abs/1805.08318v1

代碼:https://github.com/heykeetae/Self-Attention-GAN

其他資源:

  • https://lilianweng.github.io/lil-log/2018/06/24/attention-attention.html
  • https://towardsdatascience.com/not-just-another-gan-paper-sagan-96e649f01a6b

由于GAN使用轉置卷積來“掃描”特征映射,因此它們只能訪問附近的信息。

單獨使用轉置卷積就像繪制圖片,只在畫筆的小半徑范圍內查看畫布區(qū)域。

即使是能完善最獨特和復雜細節(jié)的最偉大的藝術家,在創(chuàng)作過程中也需要退后一步,看看大局。

SAGAN(全稱為“自我關注生成對抗網絡”)使用自我關注機制,由于遷移模型架構,近年來這種方式已經變得十分流行。

自我關注讓生成器退后一步,查看“大局”。

BigGAN:Big Generative Adversarial Networks

論文:https://arxiv.org/abs/1809.11096v2

代碼:https://github.com/huggingface/pytorch-pretrained-BigGAN

其他資源:

  • https://www.youtube.com/watch?v=ZKQp28OqwNQ
  • https://thegradient.pub/bigganex-a-dive-into-the-latent-space-of-biggan/
  • https://medium.com/syncedreview/biggan-a-new-state-of-the-art-in-image-synthesis-cf2ec5694024

經過四年漫長的歲月,DeepMind前所未有地決定與GAN合作,他們使用了一種深度學習的神秘技術,這種技術非常強大,是最先進的技術,超越了先進技術排行榜上所有其他的技術。

接下來展示BigGAN,GAN絕對沒有做什么(但是運行了一堆TPU集群,卻不知何故應該在這個列表中)。

開個玩笑!DeepMind團隊確實在BigGAN上取得了很多成就。除了用逼真的圖像吸睛之外,BigGAN還向我們展示了一些非常詳細的訓練GAN的大規(guī)模結果。

BigGAN背后的團隊引入了各種技術來對抗在許多機器上大批量培訓GAN的不穩(wěn)定性。

首先,DeepMind使用SAGAN作為基線,并添加了一個稱為譜歸一化的功能。

接下來,他們將圖片批量大小縮放50%,寬度(通道數)縮放20%。最初,增加層數似乎并沒有幫助。

在進行了一些其他單位數百分比改進之后,作者使用“截斷技巧”來提高采樣圖像的質量。

BigGAN在訓練期間從z N(0,I)提取其潛在向量,如果潛在向量在生成圖像時落在給定范圍之外,則重新采樣。

范圍是超參數,由ψψ表示。較小的ψψ會縮小范圍,從而以多樣化為代價提高樣本保真度。

那么所有這些錯綜復雜的調整工作會有什么后顧呢?好吧,有人稱之為狗球。

[[270064]]

BigGAN技術還發(fā)現(xiàn)更大規(guī)模的GAN訓練可能會有一系列問題。

值得注意的是,訓練集似乎可以通過增加批量大小和寬度等參數來很好地擴展,但不知什么原因,最終總會崩潰。

如果你對通過分析奇異值來理解這種不穩(wěn)定性感興趣的話,請查看論文,因為你會在那里找到很多東西。

最后,作者還在一個名為JFT-300的新數據集上訓練BigGAN,這是一個類似ImageNet的數據集,它有3億個圖像。他們表明BigGAN在這個數據集上的表現(xiàn)更好,這表明更大規(guī)模的數據集可能是GAN的發(fā)展方向。

在論文的第一版發(fā)布后,作者在幾個月后重新訪問了BigGAN。還記得我怎么說增加層數不起作用?事實證明,這是由于糟糕的訓練集選擇導致的。

該團隊不再只是在模型上填充更多層,還進行了實驗,發(fā)現(xiàn)使用ResNet突破瓶頸是可行的。

通過以上不斷地調整、縮放和仔細實驗,BigGAN的頂級線條完全抹殺了先前的最新狀態(tài),得分高達52.52分,總分是152.8。

如果這不是正確步驟的話,那我不知道哪個是正確的。

StyleGAN:Style-based Generative Adversarial Networks

[[270065]]

論文:https://arxiv.org/abs/1812.04948

代碼:https://github.com/NVlabs/stylegan

其他資源:

  • https://thispersondoesnotexist.com/
  • https://blog.nanonets.com/stylegan-got/
  • https://www.gwern.net/Faces
  • https://www.lyrn.ai/2018/12/26/a-style-based-generator-architecture-for-generative-adversarial-networks/

StyleGAN是Nvidia的一個延伸研究,它主要與傳統(tǒng)的GAN研究關系不大,傳統(tǒng)GAN主要關注損失函數,穩(wěn)定性,體系結構等。

如果你想生成汽車的圖像的話,僅僅擁有一個可以欺騙地球上大多數人的世界級人臉生成器是沒有用的。

因此,StyleGAN不是專注于創(chuàng)建更逼真的圖像,而通過提高GAN的能力,可以對生成的圖像進行精細控制。

正如我所提到的那樣,StyleGAN沒有開發(fā)架構和計算損失函數功能。相反,它是一套可以與任何GAN聯(lián)用的技術,允許您執(zhí)行各種很酷的操作,例如混合圖像,在多個級別上改變細節(jié),以及執(zhí)行更高級的樣式傳輸。

換句話說,StyleGAN就像一個photoshop插件,只是大多數GAN開發(fā)都是photoshop的新版本。

為了實現(xiàn)這種級別的圖像風格控制,StyleGAN采用了現(xiàn)有的一些技術,如自適應實例規(guī)范化,潛在矢量映射網絡和常量學習輸入。

如果沒有深入細節(jié),是很難再描述StyleGAN的,所以如果你有興趣的話,請查看我的文章,其中展示了如何使用StyleGAN生成權力游戲角色。我對所有技術都有詳細的解釋,一路上有很多很酷的結果等你哦。

結論

恭喜你,堅持看到了最后!你們都跟上了創(chuàng)造虛假個人照片的高度學術領域的最新進展。

但是在你癱在沙發(fā)上并開始無休止地刷微博票圈之前,請稍微停一下看看你到底還有多少路要走:

接下來是什么?!未被開發(fā)的區(qū)域!

在掌握了ProGAN和StyleGAN,且規(guī)模到達BigGAN之后,你很容易迷失在這里邊。

但請放大地圖仔細觀察,看到那個綠色土地了嗎?看到北方的紅三角了嗎?

這些都是等待被突破的未知開發(fā)區(qū)域,如果你放膽一試,他們都可以成為你的。

別了!朋友們,還有更多未知海域等待航行!

結語:一些有趣的前沿研究

感謝您閱讀本文。到現(xiàn)在為止,如果您已經掌握了我分享的所有資源,您應該對GAN技術中一些最重要的突破有充分的了解。

但毫無疑問,還有更多需要學習。跟上科研的步伐雖然艱難的,但并不是不可能。我的建議是:閱讀最新發(fā)表的的論文,因為它們可能會為您的項目提供新思路新方法。

為了幫您入門,我推薦一些前沿(截至2019年5月)的研究項目:

您可能已經聽說過DeOldify了。如果沒有的話,請點擊訪問這個。

網址:

https://blog.floydhub.com/colorizing-and-restoring-old-images-with-deep-learning/!

它最近有一次更新,引入了一種名為NoGAN的新訓練技術。您可以在他們的博客和代碼中查看詳細信息。

如果您沒有Google級別的數據,從頭開始復制BigGAN結果可能很繁瑣。現(xiàn)在有一篇ICML 2019的論文建議用較少的標簽訓練BigGAN質量模型。

當然,GAN并不是唯一的基于深度學習的圖像生成技術。最近,OpenAI推出了一種全新的模型—稀疏遷移模型,利用遷移模型架構進行圖像生成。像往常一樣,他們開源發(fā)布了一篇論文,博客和代碼。

系數遷移模型知識鏈接:

  • 論文:https://arxiv.org/abs/1904.10509
  • 代碼:https://github.com/openai/sparse_attention
  • 博客:https://openai.com/blog/sparse-transformer/

哦,這不是新的研究或任何其他新東西,但你應該聽聽GAN的起源故事:

Nvidia有一個非??岬捻椖縂auGAN,它可以將您孩子的涂鴉變成逼真的杰作。這真的是您需要體驗才能理解的東西。首先看下Soplay的演示,其次閱讀他們的博客和論文。

  • 演示:https://www.nvidia.com/en-us/research/ai-playground/?ncid=so-twi-nz-92489
  • 博客:https://www.nvidia.com/en-us/research/ai-playground/?ncid=so-twi-nz-92489
  • 論文:https://arxiv.org/abs/1903.07291

你有沒有想過如何“調試”GAN?這是一份ICLR 2019論文提出了一個很有前景的解決方案。

ICLR2019論文:https://openreview.net/pdf?id=Syx_Ss05tm

無論我讓GAN看起來有多厲害,還是有很多問題需要解決。有篇文章精辟地總結了一些未解決的問題。

總結文章鏈接:https://distill.pub/2019/gan-open-problems/

似乎有人為GAN找到了另一種真實世界可應用的可能。

相關報道:

  • https://blog.floydhub.com/gans-story-so-far/
  • https://www.technologyreview.com/f/613924/ai-deepfakes-gans-medical-cancer-diagnosis/

【本文是51CTO專欄機構大數據文摘的原創(chuàng)文章,微信公眾號“大數據文摘( id: BigDataDigest)”】

     大數據文摘二維碼

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2021-07-20 10:16:24

人工智能自然語言技術

2009-01-18 09:19:00

DHCPVlANIP

2021-11-11 11:31:54

擺動序列數字

2014-03-19 14:33:27

VMwareHyper-V

2019-04-17 18:04:10

網卡虛擬化網絡設備

2015-10-20 10:57:22

無線充電無線技術

2011-07-13 10:32:09

開源

2024-12-04 07:59:48

2018-01-26 09:01:16

對象存儲Java

2021-11-02 09:25:00

AI 數據人工智能

2021-12-27 07:45:30

CSS 技巧煙霧效果

2021-03-26 10:02:29

PythonVIP視頻看電影

2012-12-20 09:15:29

JVMJVM平臺JVM技術

2014-06-24 09:24:24

密碼身份驗證

2012-12-20 09:41:49

JVMJava

2009-12-25 10:07:38

Linux系統(tǒng)多點觸摸

2022-02-10 08:07:41

機器學習低代碼開發(fā)

2023-06-27 09:53:11

論文AI

2015-07-29 14:19:24

2021-08-02 09:01:29

PythonMySQL 數據庫
點贊
收藏

51CTO技術棧公眾號