自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Python爬蟲抓取智聯(lián)招聘(基礎(chǔ)版)

開發(fā) 后端
對于每個上班族來說,總要經(jīng)歷幾次換工作,如何在網(wǎng)上挑到心儀的工作?如何提前為心儀工作的面試做準(zhǔn)備?今天我們來抓取智聯(lián)招聘的招聘信息,助你換工作成功!

 [[226697]]

對于每個上班族來說,總要經(jīng)歷幾次換工作,如何在網(wǎng)上挑到心儀的工作?如何提前為心儀工作的面試做準(zhǔn)備?今天我們來抓取智聯(lián)招聘的招聘信息,助你換工作成功!

運行平臺: Windows  

Python版本: Python3.6  

IDE: Sublime Text   

其他工具:  Chrome瀏覽器

1、網(wǎng)頁分析

1.1 分析請求地址

以北京海淀區(qū)的python工程師為例進(jìn)行網(wǎng)頁分析。打開智聯(lián)招聘首頁,選擇北京地區(qū),在搜索框輸入"python工程師",點擊"搜工作":

接下來跳轉(zhuǎn)到搜索結(jié)果頁面,按"F12"打開開發(fā)者工具,然后在"熱門地區(qū)"欄選擇"海淀",我們看一下地址欄:

由地址欄后半部分searchresult.ashx?jl=北京&kw=python工程師&sm=0&isfilter=1&p=1&re=2005可以看出,我們要自己構(gòu)造地址了。接下來要對開發(fā)者工具進(jìn)行分析,按照如圖所示步驟找到我們需要的數(shù)據(jù):Request Headers和Query String Parameters :

構(gòu)造請求地址: 

  1. paras = {  
  2.    'jl''北京',                # 搜索城市  
  3.    'kw''python工程師',        # 搜索關(guān)鍵詞   
  4.    'isadv': 0,                    # 是否打開更詳細(xì)搜索選項  
  5.    'isfilter': 1,                # 是否對結(jié)果過濾  
  6.    'p': 1,                        # 頁數(shù)  
  7.    're': 2005                    # region的縮寫,地區(qū),2005代表海淀  
  8.   
  9.  
  10. url = 'https://sou.zhaopin.com/jobs/searchresult.ashx?' + urlencode(paras) 

請求頭: 

  1. headers = {  
  2.    'User-Agent''Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36' 
  3.    'Host''sou.zhaopin.com' 
  4.    'Referer''https://www.zhaopin.com/' 
  5.    'Accept''text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8' 
  6.    'Accept-Encoding''gzip, deflate, br' 
  7.    'Accept-Language''zh-CN,zh;q=0.9' 
  8.  

1.2 分析有用數(shù)據(jù)

接下來我們要分析有用數(shù)據(jù),從搜索結(jié)果中我們需要的數(shù)據(jù)有:職位名稱、公司名稱、公司詳情頁地址、職位月薪:

通過網(wǎng)頁元素定位找到這幾項在HTML文件中的位置,如下圖所示:

用正則表達(dá)式對這四項內(nèi)容進(jìn)行提?。?nbsp;

  1. # 正則表達(dá)式進(jìn)行解析  
  2. pattern = re.compile('<a style=.*? target="_blank">(.*?)</a>.*?'        # 匹配職位信息  
  3.    '<td class="gsmc"><a href="(.*?)" target="_blank">(.*?)</a>.*?'     # 匹配公司網(wǎng)址和公司名稱  
  4.    '<td class="zwyx">(.*?)</td>', re.S)                                # 匹配月薪      
  5.  
  6.  
  7. # 匹配所有符合條件的內(nèi)容  
  8. items = re.findall(pattern, html) 

注意:解析出來的部分職位名稱帶有標(biāo)簽,如下圖所示:

那么在解析之后要對該數(shù)據(jù)進(jìn)行處理剔除標(biāo)簽,用如下代碼實現(xiàn): 

  1. for item in items:  
  2.    job_name = item[0]  
  3.    job_name = job_name.replace('<b>''' 
  4.    job_name = job_name.replace('</b>''' 
  5.    yield {  
  6.        'job': job_name,  
  7.        'website': item[1],  
  8.        'company': item[2],  
  9.        'salary': item[3]  
  10.    } 

2、寫入文件

我們獲取到的數(shù)據(jù)每個職位的信息項都相同,可以寫到數(shù)據(jù)庫中,但是本文選擇了csv文件,以下為百度百科解釋:

逗號分隔值(Comma-Separated Values,CSV,有時也稱為字符分隔值,因為分隔字符也可以不是逗號),其文件以純文本形式存儲表格數(shù)據(jù)(數(shù)字和文本)。純文本意味著該文件是一個字符序列,不含必須像二進(jìn)制數(shù)字那樣被解讀的數(shù)據(jù)。

由于python內(nèi)置了csv文件操作的庫函數(shù),所以很方便:

  1. import csv  
  2. def write_csv_headers(path, headers):  
  3.    '' 
  4.    寫入表頭  
  5.    '' 
  6.    with open(path, 'a', encoding='gb18030', newline=''as f:  
  7.        f_csv = csv.DictWriter(f, headers)  
  8.        f_csv.writeheader()  
  9.  
  10. def write_csv_rows(path, headers, rows):  
  11.    '' 
  12.    寫入行  
  13.    '' 
  14.    with open(path, 'a', encoding='gb18030', newline=''as f: 
  15.        f_csv = csv.DictWriter(f, headers)  
  16.        f_csv.writerows(rows

3、進(jìn)度顯示

要想找到理想工作,一定要對更多的職位進(jìn)行篩選,那么我們抓取的數(shù)據(jù)量一定很大,幾十頁、幾百頁甚至幾千頁,那么我們要掌握抓取進(jìn)度心里才能更加踏實啊,所以要加入進(jìn)度條顯示功能。

本文選擇tqdm 進(jìn)行進(jìn)度顯示,來看一下酷炫結(jié)果(圖片來源網(wǎng)絡(luò)):

執(zhí)行以下命令進(jìn)行安裝:pip install tqdm。

簡單示例: 

  1. from tqdm import tqdm  
  2. from time import sleep   
  3. for i in tqdm(range(1000)):  
  4.    sleep(0.01)

4、完整代碼

以上是所有功能的分析,如下為完整代碼: 

  1. #-*- coding: utf-8 -*-  
  2. import re  
  3. import csv  
  4. import requests  
  5. from tqdm import tqdm  
  6. from urllib.parse import urlencode  
  7. from requests.exceptions import RequestException  
  8.  
  9. def get_one_page(city, keyword, region, page):  
  10.    '' 
  11.    獲取網(wǎng)頁html內(nèi)容并返回  
  12.    '' 
  13.    paras = {  
  14.        'jl': city,         # 搜索城市  
  15.        'kw': keyword,      # 搜索關(guān)鍵詞   
  16.        'isadv': 0,         # 是否打開更詳細(xì)搜索選項  
  17.        'isfilter': 1,      # 是否對結(jié)果過濾  
  18.        'p': page,          # 頁數(shù)  
  19.        're': region        # region的縮寫,地區(qū),2005代表海淀 
  20.    }  
  21.  
  22.    headers = {  
  23.        'User-Agent''Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36' 
  24.        'Host''sou.zhaopin.com' 
  25.        'Referer''https://www.zhaopin.com/' 
  26.        'Accept''text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8' 
  27.        'Accept-Encoding''gzip, deflate, br' 
  28.        'Accept-Language''zh-CN,zh;q=0.9'  
  29.    }  
  30.  
  31.    url = 'https://sou.zhaopin.com/jobs/searchresult.ashx?' + urlencode(paras)  
  32.    try:  
  33.        # 獲取網(wǎng)頁內(nèi)容,返回html數(shù)據(jù)  
  34.        response = requests.get(url, headers=headers)  
  35.        # 通過狀態(tài)碼判斷是否獲取成功  
  36.        if response.status_code == 200:  
  37.            return response.text  
  38.        return None  
  39.    except RequestException as e:  
  40.        return None   
  41.  
  42. def parse_one_page(html):  
  43.    '' 
  44.    解析HTML代碼,提取有用信息并返回  
  45.    '' 
  46.    # 正則表達(dá)式進(jìn)行解析  
  47.    pattern = re.compile('<a style=.*? target="_blank">(.*?)</a>.*?'        # 匹配職位信息  
  48.        '<td class="gsmc"><a href="(.*?)" target="_blank">(.*?)</a>.*?'     # 匹配公司網(wǎng)址和公司名稱  
  49.        '<td class="zwyx">(.*?)</td>', re.S)                                # 匹配月薪        
  50.   
  51.    # 匹配所有符合條件的內(nèi)容  
  52.    items = re.findall(pattern, html)      
  53.  
  54.    for item in items:  
  55.        job_name = item[0]  
  56.        job_name = job_name.replace('<b>''' 
  57.        job_name = job_name.replace('</b>''' 
  58.        yield {  
  59.            'job': job_name,  
  60.            'website': item[1],  
  61.            'company': item[2],  
  62.            'salary': item[3]  
  63.        }  
  64.  
  65. def write_csv_file(path, headers, rows):  
  66.    '' 
  67.    將表頭和行寫入csv文件  
  68.    '' 
  69.    # 加入encoding防止中文寫入報錯  
  70.    # newline參數(shù)防止每寫入一行都多一個空行  
  71.    with open(path, 'a', encoding='gb18030', newline=''as f:  
  72.        f_csv = csv.DictWriter(f, headers)  
  73.        f_csv.writeheader()  
  74.        f_csv.writerows(rows 
  75.  
  76. def write_csv_headers(path, headers):  
  77.    '' 
  78.    寫入表頭  
  79.    '' 
  80.    with open(path, 'a', encoding='gb18030', newline=''as f:  
  81.        f_csv = csv.DictWriter(f, headers)  
  82.        f_csv.writeheader()  
  83.  
  84. def write_csv_rows(path, headers, rows):  
  85.    '' 
  86.    寫入行  
  87.    '' 
  88.    with open(path, 'a', encoding='gb18030', newline=''as f:  
  89.        f_csv = csv.DictWriter(f, headers)  
  90.        f_csv.writerows(rows 
  91.  
  92. def main(city, keyword, region, pages):  
  93.    '' 
  94.    主函數(shù)  
  95.    '' 
  96.    filename = 'zl_' + city + '_' + keyword + '.csv'  
  97.    headers = ['job''website''company''salary' 
  98.    write_csv_headers(filename, headers)  
  99.    for i in tqdm(range(pages)):  
  100.        '' 
  101.        獲取該頁中所有職位信息,寫入csv文件  
  102.        '' 
  103.        jobs = []  
  104.        html = get_one_page(city, keyword, region, i)  
  105.        items = parse_one_page(html)  
  106.        for item in items:  
  107.            jobs.append(item)  
  108.        write_csv_rows(filename, headers, jobs)   
  109.  
  110. if __name__ == '__main__' 
  111.    main('北京''python工程師', 2005, 10) 

上面代碼執(zhí)行效果如圖所示:

執(zhí)行完成后會在py同級文件夾下會生成名為:zl_北京_python工程師.csv的文件,打開之后效果如下:

責(zé)任編輯:龐桂玉 來源: 程序人生
相關(guān)推薦

2014-12-04 15:26:21

智聯(lián)信息泄露

2009-03-06 09:37:17

2015-01-22 16:21:09

招聘

2014-12-03 14:15:27

2019-06-18 10:49:41

Python技術(shù)web

2017-10-11 10:43:52

2015-05-27 13:17:59

SAP

2024-04-30 09:33:00

JavaScriptPythonexecjs

2017-04-06 11:12:38

JavaScriptGoogle爬蟲

2009-03-24 16:43:28

跳槽招聘職場

2023-12-08 18:05:12

文本爬蟲Python

2009-04-15 09:33:04

招聘競爭互聯(lián)網(wǎng)

2020-07-10 08:24:18

Python開發(fā)工具

2010-07-19 15:58:12

面試原則

2017-12-20 09:35:25

Python爬蟲百度云資源

2009-07-15 10:27:11

3G牌照電信人才

2023-11-27 08:51:46

PythonRequests庫

2009-06-04 09:50:50

IT行業(yè)就業(yè)軟件測試
點贊
收藏

51CTO技術(shù)棧公眾號