用Python做個(gè)海量小姐姐素描圖
素描作為一種近乎完美的表現(xiàn)手法有其獨(dú)特的魅力,隨著數(shù)字技術(shù)的發(fā)展,素描早已不再是專(zhuān)業(yè)繪畫(huà)師的專(zhuān)利,今天這篇文章就來(lái)講一講如何使用python批量獲取小姐姐素描畫(huà)像。文章共分兩部分:
1.獲取素描圖的兩個(gè)思路
本部分介紹的兩個(gè)思路都是基于opencv來(lái)實(shí)現(xiàn),不涉及深度學(xué)習(xí)相關(guān)內(nèi)容。基本思想是讀入一張照片圖,然后通過(guò)各種變換轉(zhuǎn)化成素描圖。為了演示方便,我們先找來(lái)一張小姐姐的照片作為實(shí)驗(yàn)素材。
1)漫畫(huà)風(fēng)格
先來(lái)說(shuō)第一種方法,這種方法的核心思想是利用了名為“閾值化”的技術(shù),這種技術(shù)是基于圖像中物體與背景之間的灰度差異,而進(jìn)行的像素級(jí)別的分割。
如果想要把一張圖片轉(zhuǎn)化為只呈現(xiàn)黑色和白色的素描圖,就需要對(duì)其進(jìn)行二值化操作,opencv中提供了兩種二值化操作方法:threshold()和adaptiveThreshold()。相比threshold(),adaptiveThreshold()能夠根據(jù)圖像不同區(qū)域亮度分布進(jìn)行局部自動(dòng)調(diào)節(jié),因此被稱(chēng)為自適應(yīng)二值化。下面這幅圖就是對(duì)彩色圖片進(jìn)行二值化操作后的效果。
上面提到的概念可能比較晦澀,不理解也沒(méi)有關(guān)系,下面我們重點(diǎn)講講怎么進(jìn)行實(shí)際操作。
第一步,讀入圖片并轉(zhuǎn)化為灰度圖。這一步算是常規(guī)操作了,相信使用過(guò)opencv的同學(xué)都寫(xiě)過(guò)類(lèi)似的代碼。
- img_rgb = cv2.imread(src_image)
- img_gray = cv2.cvtColor(img_rgb, cv2.COLOR_RGB2GRAY)
第二步,使用adaptiveThreshold()方法對(duì)圖片進(jìn)行二值化操作,函數(shù)中的參數(shù)大多用于設(shè)置自適應(yīng)二值化的算法和閾值等。
- img_edge = cv2.adaptiveThreshold(img_gray, 255,
- cv2.ADAPTIVE_THRESH_MEAN_C,
- cv2.THRESH_BINARY, blockSize=3, C=2)
第三步,保存轉(zhuǎn)換后的圖片
- cv2.imwrite(dst_image, img_edge)
經(jīng)過(guò)上述步驟的操作,我們得到了一幅新的黑白圖片,一起來(lái)看看轉(zhuǎn)換后的圖片效果。
從轉(zhuǎn)換后的圖片來(lái)看,雖然大概輪廓沒(méi)有問(wèn)題,但是效果很不理想,并不能夠稱(chēng)之為素描圖。這主要是因?yàn)閍daptiveThreshold()會(huì)在圖片的每一個(gè)小的局部區(qū)域內(nèi)進(jìn)行二值化操作,因此對(duì)于一些清晰度比較高、色彩區(qū)分比較細(xì)膩的圖片,就會(huì)出現(xiàn)上面這樣密密麻麻的情況。
這個(gè)問(wèn)題解決起來(lái)其實(shí)也很簡(jiǎn)單,只要在進(jìn)行二值化之前加入下面這行代碼對(duì)原圖進(jìn)行模糊化就可以了。
- img_gray = cv2.medianBlur(img_gray, 5)
再來(lái)看看這次生成的素描圖(下圖),是不是看起來(lái)舒服多了,還有一種手繪漫畫(huà)的感覺(jué)。
2)寫(xiě)實(shí)風(fēng)格
通過(guò)上面這種方法,雖然最終也獲得了一幅還算不錯(cuò)的素描圖,但是看起來(lái)多少有些“失真”,為了獲取看起來(lái)更加真實(shí)的素描圖,我們嘗試另外一種方法。
這種方法的核心思想是通過(guò)“底片融合”的方式獲取原圖中一些比較重要的線條,具體實(shí)現(xiàn)步驟如下:
第一步,跟上面的方法一樣,使用opencv讀取圖片并生成灰度圖。
第二步,對(duì)灰度圖進(jìn)行模糊化操作。經(jīng)過(guò)試驗(yàn),使用上面提到的中值濾波函數(shù)cv2.medianBlur()進(jìn)行模糊化操作最終得到的素描圖效果并不好,這里我們嘗試使用高斯濾波進(jìn)行圖片模糊化,代碼如下:
- img_blur = cv2.GaussianBlur(img_gray, ksize=(21, 21),
- sigmaX=0, sigmaY=0)
其中,參數(shù)ksize表示高斯核的大小,sigmaX和sigmaY分別表示高斯核在 X 和 Y 方向上的標(biāo)準(zhǔn)差。
第三步,使用cv2.divide()方法對(duì)原圖和模糊圖像進(jìn)行融合,cv2.divide()本質(zhì)上進(jìn)行的是兩幅圖像素級(jí)別的除法操作,其得到的結(jié)果可以簡(jiǎn)單理解為兩幅圖之間有明顯差異的部分。來(lái)看代碼:
- cv2.divide(img_gray, img_blur, scale=255)
第四步,保存生成的圖片,代碼跟上一個(gè)方法中一樣,我們直接來(lái)看獲取到的素描圖效果。
從結(jié)果來(lái)看,這種方法獲得的素描圖線條更加細(xì)膩,素描效果也更好。
2.批量獲取小姐姐素描畫(huà)像
在這一部分,我們要實(shí)現(xiàn)批量獲取小姐姐素描畫(huà)像的功能,基于上文中兩種素描圖效果比對(duì),這里采用第二種方法來(lái)實(shí)現(xiàn)圖片到素描圖的轉(zhuǎn)換。
那么,接下來(lái)要解決的就是圖片源的問(wèn)題了。最近很多項(xiàng)目都成功實(shí)現(xiàn)了從抖音或者知乎獲取漂亮小姐姐這一操作,其實(shí)除了這些平臺(tái)之外還有好多網(wǎng)站能獲取到漂亮小姐姐的圖片。
網(wǎng)站的具體內(nèi)容我就不在文中展示了,為了指定圖片爬取的思路,大概講下頁(yè)面結(jié)構(gòu):網(wǎng)站的主頁(yè)羅列了N個(gè)主題,每個(gè)主題頁(yè)面中都包含了M張小姐姐的圖片,結(jié)構(gòu)示意圖如下:
各頁(yè)面url的構(gòu)建也很明了,例如下圖中的頁(yè)面url是http://www.waxjj.cn/2794.html,其中2794就是主題頁(yè)的ID號(hào)。查看頁(yè)面的html代碼(下圖),發(fā)現(xiàn)每張圖片都在一個(gè)<li>標(biāo)簽下面。
遇到這種情況,一般來(lái)說(shuō)我們可以通過(guò)某種解析器來(lái)獲取每張圖片的url。但是,經(jīng)過(guò)仔細(xì)觀察發(fā)現(xiàn)整個(gè)網(wǎng)頁(yè)的html代碼中只有涉及圖片url的部分帶有完整的http連接,因此可以考慮使用正則表達(dá)式來(lái)提取圖片url,實(shí)現(xiàn)這部分功能的代碼如下。
在上面這段代碼中,我們提取主題頁(yè)的ID作為待保存圖片名稱(chēng)的一部分,save_jpg()函數(shù)中會(huì)把每張圖片轉(zhuǎn)換為素描圖并保存到本地。
由于我們要使用opencv對(duì)抓取到的圖片進(jìn)行各種運(yùn)算轉(zhuǎn)換,因此使用requests獲取的圖片必須先保存到本地,再用opencv重新讀入后才行。基于上述思想,我們構(gòu)建了如下所示的save_jpg()函數(shù),其中rgb_to_sketch()函數(shù)是對(duì)上文第一部分中所說(shuō)的第二種素描圖的獲取方法進(jìn)行的封裝。
而在主函數(shù)中,我們只需要指定想要獲取主題頁(yè)面的id號(hào),構(gòu)建一組url列表就可以了:
- def main():
- idlist = ['id1', 'id2']
- urllist = ['http://www.waxjj.cn/'+x+'.html' for x in idlist]
- jpgurls = get_jpg_urls(urllist)
以上就是完整代碼,來(lái)看看運(yùn)行后的效果吧~~
其實(shí)程序員要想防止脫發(fā)程序員還在擔(dān)心脫發(fā),我覺(jué)得還是要多鍛煉身體,少熬夜,當(dāng)然多看看養(yǎng)眼的小姐姐也不是不錯(cuò)的!