終于有人把Scrapy爬蟲框架講明白了
本文轉載自微信公眾號「大數(shù)據(jù)DT」,作者趙國生 王健。轉載本文請聯(lián)系大數(shù)據(jù)DT公眾號。
Scrapy是用純Python語言實現(xiàn)的一個為爬取網站數(shù)據(jù)、提取結構性數(shù)據(jù)而編寫的應用框架,Scrapy使用了Twisted異步網絡框架來處理網絡通信,可以加快我們的下載速度,不用自己去實現(xiàn)異步框架,并且包含了各種中間件接口,可以靈活地實現(xiàn)各種需求。
Scrapy可以應用在包括數(shù)據(jù)挖掘、信息處理或存儲歷史數(shù)據(jù)等一系列的程序中,其最初是為頁面抓取(更確切地說是網絡抓取)而設計的,也可以應用于獲取API所返回的數(shù)據(jù)(例如Amazon Associates Web Services)或者通用的網絡爬蟲。
01 Scrapy框架介紹
關于Scrapy框架的最簡單的安裝方法是:
通過anaconda→environments→最右邊界面的第一個選項all,在搜索框里搜索scrapy→選擇安裝。
或者在terminal或者cmd中使用pip安裝就好。
- # python 3+
- pip3 install scrapy
Scrapy內部實現(xiàn)了包括并發(fā)請求、免登錄、URL去重等很多復雜操作,用戶不需要明白Scrapy內部具體的爬取策略,只需要根據(jù)自己的需求去編寫小部分的代碼,就能抓取到所需要的數(shù)據(jù)。Scrapy框架如圖8-1所示。
圖8-1 Scrapy框架
圖8-1中帶箭頭的線條表示數(shù)據(jù)流向,首先從初始URL開始,調度器(Scheduler)會將其交給下載器(Downloader),下載器向網絡服務器(Internet)發(fā)送服務請求以進行下載,得到響應后將下載的數(shù)據(jù)交給爬蟲(Spider),爬蟲會對網頁進行分析,分析出來的結果有兩種:一種是需要進一步抓取的鏈接,這些鏈接會被傳回調度器;另一種是需要保存的數(shù)據(jù),它們則被送到項目管道(Item Pipeline),Item會定義數(shù)據(jù)格式,最后由Pipeline對數(shù)據(jù)進行清洗、去重等處理,繼而存儲到文件或數(shù)據(jù)庫。
02 Scrapy框架詳解
Scrapy由Python語言編寫,是一個快速、高層次的屏幕抓取和Web抓取框架,用于抓取Web站點并從頁面中提取出結構化的數(shù)據(jù)。Scrapy用途廣泛,可以用于數(shù)據(jù)挖掘、監(jiān)測和自動化測試等。
1. 框架內組件及作用
Scrapy框架內包含的組件如下:
- 爬蟲中間件(Spider Middleware):位于Scrapy引擎和爬蟲之間的框架,主要用于處理爬蟲的響應輸入和請求輸出。
- 調度器中間件(Scheduler Middleware):位于Scrapy引擎和調度器之間的框架,主要用于處理從Scrapy引擎發(fā)送到調度器的請求和響應。
- 調度器:用來接收引擎發(fā)過來的請求,壓入隊列中,并在引擎再次請求的時候返回。它就像是一個URL的優(yōu)先隊列,由它來決定下一個要抓取的網址是什么,同時在這里會去除重復的網址。
- 下載器中間件(Downloader Middleware):位于Scrapy引擎和下載器之間的框架,主要用于處理Scrapy引擎與下載器之間的請求及響應。代理IP和用戶代理可以在這里設置。
- 下載器:用于下載網頁內容,并將網頁內容返回給爬蟲。
- Scrapy引擎(ScrapyEngine):用來控制整個系統(tǒng)的數(shù)據(jù)處理流程,并進行事務處理的觸發(fā)。
- 爬蟲:爬蟲主要是干活的,用于從特定網頁中提取自己需要的信息,即所謂的項目(又稱實體)。也可以從中提取URL,讓Scrapy繼續(xù)爬取下一個頁面。
- 項目管道:負責處理爬蟲從網頁中爬取的項目,主要的功能就是持久化項目、驗證項目的有效性、清除不需要的信息。當頁面被爬蟲解析后,將被送到項目管道,并經過幾個特定的次序來處理其數(shù)據(jù)。
2. Scrapy運行流程
Scrapy運行流程如下:
- 引擎從調度器中取出一個URL用于接下來的抓取;
- 引擎把URL封裝成一個請求(request)傳給下載器;
- 下載器把資源下載下來,并封裝成一個響應(response);
- 爬蟲解析響應;
- 解析出的是項目,則交給項目管道進行進一步的處理;
- 解析出的是鏈接URL,則把URL交給調度器等待下一步的抓取。
3. 數(shù)據(jù)流向
Scrapy數(shù)據(jù)流是由執(zhí)行流程的核心引擎來控制的,流程如圖8-2所示。
圖8-2 框架組件數(shù)據(jù)流
- 引擎打開網站,找到處理該網站的爬蟲并向該爬蟲請求第一個要爬取的URL。
- 引擎從爬蟲中獲取到第一個要爬取的URL,并在調度器中以請求調度。
- 引擎向調度器請求下一個要爬取的URL。
- 調度器返回下一個要爬取的URL給引擎,引擎通過下載中間件轉給下載器。
- 一旦頁面下載完畢,下載器便會生成一個該頁面的響應,并通過下載器中間件將其發(fā)送給引擎。
- 引擎從下載器中接收到響應并通過爬蟲中間件發(fā)送給爬蟲處理。
- 爬蟲處理響應,并返回爬取到的項目及新的請求給引擎。
- 引擎將爬蟲爬取到的項目傳給項目管道,將爬蟲返回的請求傳給調度器。
- 從第2步重復直到調度器中沒有更多的請求,引擎便會關閉該網站。
03 Scrapy框架中的Selector
當我們取得了網頁的響應之后,最關鍵的就是如何從繁雜的網頁中把我們需要的數(shù)據(jù)提取出來,Python中常用以下模塊來處理HTTP文本解析問題:
- BeautifulSoup:作為程序員間非常流行的網頁分析庫,它通常基于HTML代碼的結構來構造一個Python對象,對不良標記的處理也非常合理,但它有一個缺點,就是“慢”。
- lxml:一個基于ElementTree的Python化的XML解析庫。
我們可以在Scrapy中使用任意熟悉的網頁數(shù)據(jù)提取工具,如上面的兩種,但是,Scrapy本身也為我們提供了一套提取數(shù)據(jù)的機制,我們稱之為選擇器Selector,它通過特定的XPath或者CSS表達式來選擇HTML文件中的某個部分。
XPath是一門用來在XML文件中選擇節(jié)點的語言,也可以用在HTML上。CSS是一門將HTML文檔樣式化的語言。選擇器由它定義,并與特定的HTML元素的樣式相關連。
Selector是基于lxml來構建的,支持XPath選擇器、CSS選擇器以及正則表達式,功能全面、解析速度快且和準確度高。
本文篇幅有限,具體實操案例請關注大數(shù)據(jù)DT后續(xù)內容推送,或查閱《Python網絡爬蟲技術與實戰(zhàn)》一書第8章。查看更多爬蟲干貨文章,可關注大數(shù)據(jù)DT,在公眾號后臺對話框回復爬蟲。
關于作者:趙國生,哈爾濱師范大學教授,工學博士,碩士生導師,黑龍江省網絡安全技術領域特殊人才。主要從事可信網絡、入侵容忍、認知計算、物聯(lián)網安全等方向的教學與科研工作。
本文摘編自《Python網絡爬蟲技術與實戰(zhàn)》,經出版方授權發(fā)布。