自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

以 jQuery 之名 - 爬蟲利器 PyQuery

開發(fā) 開發(fā)工具
如果說(shuō)到 jQuery,熟悉前端的同學(xué)肯定不陌生,它可以簡(jiǎn)單優(yōu)雅地對(duì) html 文件進(jìn)行定位、選擇、移動(dòng)等操作。而本文的主角 pyquery,支持以 jquery 的方式對(duì) html 進(jìn)行操作。

很多讀者在學(xué)習(xí)了 Python 之后都想做一些爬蟲程序,去網(wǎng)上采集數(shù)據(jù)或完成一些自動(dòng)化操作。因此,我們也制作了一套爬蟲實(shí)戰(zhàn)課程,目前正在***的完善中,很快將和各位見面。

等不及的朋友,可以先來(lái)看看這個(gè)類似于 bs4 的網(wǎng)頁(yè)分析模塊——PyQuery。

如果說(shuō)到 jQuery,熟悉前端的同學(xué)肯定不陌生,它可以簡(jiǎn)單優(yōu)雅地對(duì) html 文件進(jìn)行定位、選擇、移動(dòng)等操作。而本文的主角 pyquery,支持以 jquery 的方式對(duì) html 進(jìn)行操作。因此非常適合有前端或 js 基礎(chǔ)的同學(xué)使用。

廢話不多說(shuō),一邊看文章,一邊打開編輯器,跟著我一探究竟吧。

1. 安裝

安裝過(guò)程比較簡(jiǎn)單

  1. pip install pyquery 

2. 入門使用

接下來(lái),我們以分析簡(jiǎn)書首頁(yè)文章為例,簡(jiǎn)單梳理 pyquery 的部分函數(shù) 。

(1)  導(dǎo)入相關(guān)的庫(kù)

分別導(dǎo)入 網(wǎng)絡(luò)請(qǐng)求庫(kù) requests、以及 pyquery 。

  1. import requests 
  2. import pyquery 

(2) 向 pyquery 導(dǎo)入數(shù)據(jù)

與 bs4 一樣,處理網(wǎng)頁(yè)首先建立一個(gè) pyquery 對(duì)象。通過(guò)抓取到的網(wǎng)頁(yè)內(nèi)容初始化即可。

  1. # 請(qǐng)求簡(jiǎn)書地址 
  2. url = 'http://www.jianshu.com/' 
  3. req = requests.get(url) 
  4. page = req.text 
  5. # 導(dǎo)入 pyquery 處理 
  6. pq = pyquery.PyQuery(page) 

pyquery 也可以直接調(diào)用內(nèi)置的網(wǎng)絡(luò)請(qǐng)求模塊,從網(wǎng)址初始化:

  1. url = 'http://www.baidu.com' 
  2. pq = pyquery.PyQuery(urlurl=url) 

(3) 定位元素

pyquery 提供多種定位元素的方法,這里簡(jiǎn)單介紹三種,直接定位、根據(jù) id 定位 ,根據(jù) class 定位。

根據(jù) html 標(biāo)簽直接定位:

  1. # 直接定位 head 標(biāo)簽 
  2. pqpq_head = pq('head') 

以上代碼就是獲取 html 中 < head>.......< /head> 標(biāo)簽內(nèi)的內(nèi)容。

根據(jù) id 定位:

在簡(jiǎn)書首頁(yè)源代碼中可找到這么一段

以 jQuery 之名 - 爬蟲利器 PyQuery

根據(jù) id 定位找到這個(gè) li 標(biāo)簽,代碼如下:

  1. # 定位 id = note-11772642 的 li 標(biāo)簽 
  2. pqpq_id = pq('#note-11772642') 

以上代碼獲取 id 名為 note-11772642 的標(biāo)簽,需要注意的是查詢 id 時(shí)添加 # 前綴,這是 css 選擇器語(yǔ)法。

根據(jù) class 定位:

同樣以剛才的為例

我們根據(jù) class=have-img 去獲取這個(gè) li 標(biāo)簽

  1. # 定位 class = have-img 的 li 標(biāo)簽 
  2. pqpq_class = pq('.have-img') 

注意的是查詢 class 時(shí)添加 . 前綴,這也是 css 選擇器語(yǔ)法。

(4) 索引標(biāo)簽

在上一節(jié)的***有個(gè)小問題,我們知道 head 標(biāo)簽在 html 中只有一個(gè),而 class 名為 have-img 的 li 標(biāo)簽可能有多個(gè),我們?cè)?/p>

如何遍歷所有的 li 標(biāo)簽?zāi)? 又該如何單獨(dú)的取某一個(gè) li 呢?

首先我們可以逐個(gè)遍歷

  1. # 遍歷所有 class = have-img 的 li 標(biāo)簽 
  2. for li in pq_class:     
  3.     # 獲取每一個(gè) li 標(biāo)簽 
  4.     pqpq_li = pq(li) 

我們可以索引某一個(gè) li 標(biāo)簽

使用.ep(index) 函數(shù)。

  1. # 獲取***個(gè) li 標(biāo)簽 
  2. li_first = pq_class.ep(0) 
  3. # 獲取第二個(gè) li 標(biāo)簽 
  4. li_second = pq_class.ep(1) 

(5) 尋找標(biāo)簽

同樣回到剛剛的那張圖

在上一步,我們已經(jīng)找到了所有的 li 標(biāo)簽,也知道如何取索引其中的元素,但我們現(xiàn)在要準(zhǔn)確定位到某一個(gè)元素,比如上圖中 id = note-11772642 這個(gè) li 標(biāo)簽。

這時(shí)候 filter(selecter) 就派上了用場(chǎng)

  1. li_spec = pq_class.filter('#note-11772642') 

這樣我們就找到了指定的這個(gè) li 標(biāo)簽,需要注意的是, filter 函數(shù)只能在同一級(jí)標(biāo)簽中尋找,比如在這里只能過(guò)濾 li 標(biāo)簽,而不能定位 li 標(biāo)簽下的 a 標(biāo)簽、 div 標(biāo)簽等。

當(dāng)然,針對(duì)這種情況, pyquery 為我們提供了另外一個(gè)函數(shù) find(selector),該函數(shù)用于尋找子節(jié)點(diǎn),繼續(xù)以上圖為例,尋找該特定 li 標(biāo)簽下的 p 標(biāo)簽

  1. p_tag = li_spec.find('p') 

(6) 提取屬性與值

以上我們講了許多關(guān)于標(biāo)簽的知識(shí),現(xiàn)在來(lái)談?wù)勗趺传@取標(biāo)簽內(nèi)的屬性和標(biāo)簽包裹的文本,實(shí)際的爬蟲項(xiàng)目中,通常這是最重要的一步,比如從 a 標(biāo)簽中獲取鏈接、從 li 標(biāo)簽或者 p標(biāo)簽中獲取文本。

獲取屬性:

使用 attr() 函數(shù),以我們之前獲取的 li 標(biāo)簽為例,獲取其中的 id 屬性

  1. # 獲取 id 屬性的方法 
  2. li_specli_spec_id = li_spec.attr('id') 
  3. li_specli_spec_id_2 = li_spec.attr.id 
  4. li_specli_spec_id_3 = li_spec.attr['id'] 

獲取文本:

使用 text()函數(shù), 以我們之前得到的 p 標(biāo)簽為例,獲取其中的文本。

  1. string = p_tag.text() 

到此,在爬蟲中會(huì)使用到的函數(shù)就是這些了。

3. 小結(jié)

pyquery 還擁有操作文檔樹的能力,本篇文章著重介紹與爬蟲相關(guān)的知識(shí),所以就不再此詳細(xì)敘述了,有興趣的同學(xué)移步官方文檔:

http://pythonhosted.org/pyquery/index.html

***,既然我們都分析了簡(jiǎn)書首頁(yè),請(qǐng)大家根據(jù)所學(xué)內(nèi)容爬取簡(jiǎn)書首頁(yè)所有的文章標(biāo)題和文章鏈接,然后打印出來(lái)吧,像下圖一樣

【本文是51CTO專欄機(jī)構(gòu)“Crossin的編程教室”的原創(chuàng)文章,轉(zhuǎn)載請(qǐng)通過(guò)微信公眾號(hào)(rossincode)聯(lián)系原作者】

戳這里,看該作者更多好文

責(zé)任編輯:趙寧寧 來(lái)源: 51CTO專欄
相關(guān)推薦

2013-11-25 09:22:07

2014-11-04 09:14:58

2017-05-27 20:00:30

Python爬蟲神器PyQuery

2016-03-03 14:48:51

F5應(yīng)用交付

2012-10-16 10:41:31

云計(jì)算應(yīng)用架構(gòu)

2009-01-27 10:38:00

思杰虛擬化XenSource

2022-06-27 09:23:14

爬蟲frida rpc加密

2018-05-14 14:34:50

閑置交易

2014-10-27 20:50:18

2021-10-28 19:06:01

裁員運(yùn)營(yíng)商編制

2022-03-10 16:01:29

Playwright開源

2021-07-13 18:21:00

鯤鵬

2019-11-27 18:42:00

飛利浦Fidelio

2019-11-28 18:39:00

飛利浦Fidelio

2014-02-11 15:23:19

銳捷網(wǎng)絡(luò)公益

2024-04-30 09:33:00

JavaScriptPythonexecjs

2021-10-14 09:14:50

PyQueryPython網(wǎng)頁(yè)

2013-11-25 10:54:48

IT技術(shù)周刊
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)