自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

尋找CNN的弱點(diǎn),小心MNIST中的“套路”

人工智能 深度學(xué)習(xí)
CNN是現(xiàn)在十分火熱的模型,在很多圖像檢索問(wèn)題上,CNN模型的效果在以往的基礎(chǔ)上有了很大的提高,但是CNN畢竟沒(méi)有把這些問(wèn)題完全解決,CNN還是有它自己的弱點(diǎn)的。這個(gè)弱點(diǎn)也不能算作是它獨(dú)有的問(wèn)題,但是由于它的效果實(shí)在太好了,很多人甚至對(duì)它產(chǎn)生了迷信,因此這盆冷水就潑到它身上了。

[[191828]]

CNN是現(xiàn)在十分火熱的模型,在很多圖像檢索問(wèn)題上,CNN模型的效果在以往的基礎(chǔ)上有了很大的提高,但是CNN畢竟沒(méi)有把這些問(wèn)題完全解決,CNN還是有它自己的弱點(diǎn)的。這個(gè)弱點(diǎn)也不能算作是它獨(dú)有的問(wèn)題,但是由于它的效果實(shí)在太好了,很多人甚至對(duì)它產(chǎn)生了迷信,因此這盆冷水就潑到它身上了。

大神們看到了CNN模型的強(qiáng)大,但忍不住提出一個(gè)問(wèn)題:CNN有沒(méi)有什么搞不定的地方?比方說(shuō)我們用CNN構(gòu)建了一個(gè)人臉識(shí)別的模型,在訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集上表現(xiàn)良好,但是會(huì)不會(huì)有一些用例是它會(huì)誤判的,而且我們可以找到規(guī)律生成這些用例?

我們可以想象,如果我們對(duì)之前識(shí)別正確的數(shù)據(jù)做輕微的改動(dòng),那么它還是有可能識(shí)別正確的。于是我們就有了一個(gè)方案,我們每將圖像做一點(diǎn)改動(dòng),就把圖像傳入CNN做一下測(cè)試,然后看看CNN的預(yù)測(cè)結(jié)果有沒(méi)有發(fā)生改變,如果沒(méi)有發(fā)生改變,我們就保存這個(gè)圖像,接著我們?cè)龠M(jìn)行下一輪的改動(dòng),經(jīng)過(guò)若干輪的改動(dòng)后,我們把生成的圖像輸出出來(lái)看看圖像會(huì)變成什么樣子。

這里我們將采用MNIST為例,以下的就是我們的改動(dòng)方案:

  1. 利用MNIST的訓(xùn)練集訓(xùn)練一個(gè)CNN的模型,我們的CNN模型結(jié)構(gòu)是:conv32*3*3->relu->maxpool2*2->conv64*3*6->relu->maxpool2*2->fc256->dropout0.5->fc10。
  2. 找到一個(gè)訓(xùn)練數(shù)據(jù),將其數(shù)據(jù)范圍限定在0到1之間,我們對(duì)每一個(gè)像素點(diǎn)隨機(jī)增減-0.1到0.1之間的一個(gè)數(shù),這樣得到64個(gè)隨機(jī)的圖像,然后經(jīng)過(guò)CNN模型預(yù)測(cè)得到這64個(gè)圖像的預(yù)測(cè)label,從中選擇一個(gè)和原始label相同的圖像。經(jīng)過(guò)若干輪迭代后,我們就可以看看這個(gè)隨機(jī)改變的數(shù)字變成了什么樣子。

我們選擇了一個(gè)數(shù)字0:

 

經(jīng)過(guò)50輪迭代,我們得到了這樣的圖像:

 

經(jīng)過(guò)100輪迭代,我們得到了這樣的圖像:

 

經(jīng)過(guò)150輪迭代,我們得到了這樣的圖像:

 

經(jīng)過(guò)200輪迭代,我們得到了這樣的圖像:

 

到此為止,可以看出這個(gè)數(shù)字還是隱約可見(jiàn),但是實(shí)際上圖像已經(jīng)變得模糊不清,大量的雜亂信息混入其中,已經(jīng)和原始的數(shù)字完全不同。

這個(gè)套路被稱(chēng)作“fool CNN”,用東北話說(shuō)就是忽悠。繼續(xù)迭代下去,我們還能生成出更精彩的圖像。當(dāng)然這也只是忽悠CNN模型的一種辦法,我們還有其他的辦法來(lái)生成圖像。其他的辦法這里就不再介紹了。關(guān)于這種忽悠,大神們也給出了和機(jī)器學(xué)習(xí)有關(guān)的解釋?zhuān)?/p>

CNN的模型說(shuō)到底還是個(gè)判別式模型,如果我們把圖像設(shè)為X,label設(shè)為y,CNN的模型就相當(dāng)于求p(y|X)的值。判別式模型相當(dāng)于描述“什么樣的圖像是這個(gè)label的圖像”,而滿足了這些條件的圖像有時(shí)并不是具有真實(shí)label的那個(gè)圖像。而上面的忽悠套路就是利用了這個(gè)漏洞。

上面的例子中,我們用這種fool的方法讓一張模糊不清的圖像保持了原來(lái)的label,同時(shí)我們也可以讓一張不算模糊的圖像被CNN錯(cuò)認(rèn)成另外一個(gè)label。

比方說(shuō)下面這張經(jīng)過(guò)40輪迭代的圖像被認(rèn)成了6:

 

這些套路的出現(xiàn)都讓我們對(duì)CNN有了一些警惕,如果想讓CNN對(duì)手寫(xiě)數(shù)字完全hold住,我們還需要其他的方法輔助,不然的話這種意外總會(huì)發(fā)生。

那么有沒(méi)有什么方法能解決這樣的問(wèn)題呢? 

責(zé)任編輯:龐桂玉 來(lái)源: 36大數(shù)據(jù)
相關(guān)推薦

2009-04-09 10:17:00

2018-12-14 08:45:42

筆記本輕薄本顯卡

2009-03-04 10:39:47

面試求職弱點(diǎn)

2021-07-14 06:40:02

矩陣路徑字符串

2018-06-13 07:53:50

物聯(lián)網(wǎng)IOT人工智能

2018-03-12 10:39:19

流量長(zhǎng)途漫游互聯(lián)網(wǎng)

2012-08-10 09:59:47

2011-02-17 09:58:16

WindowsUbuntu

2010-01-12 09:22:19

云計(jì)算

2017-10-27 16:19:23

語(yǔ)音識(shí)別CNN

2016-09-18 15:38:10

CMDB配置

2016-10-28 21:47:44

開(kāi)發(fā)經(jīng)驗(yàn)Android

2017-07-25 15:21:42

數(shù)據(jù)挖掘深度學(xué)習(xí)模型

2018-08-03 08:43:38

2021-07-30 23:14:47

網(wǎng)絡(luò)安全奧運(yùn)運(yùn)營(yíng)商

2019-03-18 10:02:16

緩存更新數(shù)據(jù)

2010-12-20 12:33:55

2012-05-10 17:12:43

創(chuàng)新工場(chǎng)燈泡工場(chǎng)

2017-10-26 15:41:49

AICNN加速

2014-10-13 17:04:28

IT運(yùn)維管理
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)