自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

手把手教你使用Curl2py自動構(gòu)造爬蟲代碼并進(jìn)行網(wǎng)絡(luò)爬蟲

開發(fā) 前端
這篇文章主要給大家介紹了curl2py工具及其用法。curl2py工具的確是一個神器,功能強(qiáng)大,而且十分方便,有了它,基本上網(wǎng)頁請求數(shù)據(jù)的復(fù)制、粘貼等傳統(tǒng)方式都通通幫你搞定了,而且省事省心省力,還不用擔(dān)心翻車。

[[420956]]

大家好,我是Python進(jìn)階者。

前言

前幾天給大家分享了小小明大佬的兩篇文章,分別是盤點(diǎn)一個小小明大佬開發(fā)的Python庫,4個超贊功能和手把手教你用Python網(wǎng)絡(luò)爬蟲獲取B站UP主10萬條數(shù)據(jù)并用Pandas庫進(jìn)行趣味數(shù)據(jù)分析,這兩篇文章里邊都有說到curl2py命令,這個命令十分的神奇,通過curl2py命令將網(wǎng)頁請求參數(shù)直接轉(zhuǎn)換為python代碼。

curl2py命令是小小明大佬開發(fā)的filestools庫下四大神器之一,filestools目前包含四個工具包,分別是樹形目錄顯示、文件差異比較、圖片加水印和curl請求轉(zhuǎn)python代碼。關(guān)于其他三個神器的介紹,在上面那個超鏈接里邊也有,這里給出源地址出處,直擊小小明大佬開發(fā)的庫。

https://pypi.org/project/filestools/

前幾天有粉絲在問這個curl2py命令不知道怎么使用,今天這篇文章就是一個手把手教程,希望大家后面都可以用上,下面一起來看看吧!

一、安裝

你可以選擇在命令提示符使用pip安裝filestools庫,安裝命令:

  1. pip install filestools 
  2. 或者 
  3. pip install filestools -i http://pypi.douban.com/simple/ --trusted-host=pypi.douban.com 

二、傳統(tǒng)方法

1、目標(biāo)網(wǎng)站

安裝之后,我們就可以進(jìn)行使用了。這里我們以小小明大佬之前介紹過的這個網(wǎng)站為例,進(jìn)行說明。

小小數(shù)據(jù)網(wǎng)站:https://xxkol.cn/kol

【注意】:如果是初次登錄這個網(wǎng)站,需要進(jìn)行微信掃碼登錄,才能有瀏覽權(quán)限噢!

2、網(wǎng)頁請求

那么現(xiàn)在我們需要獲取這個網(wǎng)站的數(shù)據(jù),就需要對改網(wǎng)站進(jìn)行請求。老規(guī)矩,右鍵選擇“檢查”(如下圖所示)或者直接按下鼠標(biāo)快捷鍵F12,可以進(jìn)入開發(fā)者模式。

進(jìn)入到開發(fā)者模式,如下圖所示。依次選擇網(wǎng)絡(luò)-->Fetch/XHR。

我們嘗試進(jìn)行翻頁查看數(shù)據(jù)的話,發(fā)現(xiàn)這個網(wǎng)站其實是JS加載的,那么就需要構(gòu)造請求頭,如下圖所示。

按照以往的做法,我們肯定是需要手動的去把這些cookies、headers和params參數(shù)挨個的去復(fù)制粘貼到我們的代碼文件里邊。這么做肯定是可以的,但是容易出現(xiàn)出錯或者漏了某一個參數(shù),而且費(fèi)時費(fèi)力,萬一出錯了,你還得挨個從頭到尾去檢查,十分的頭大。

那現(xiàn)在小小明大佬給我們開發(fā)的這個curl2py工具呢,就直接解放了我們的雙手,我直呼小小明yyds!下面一起來看看如何使用吧。

三、curl2py工具

1、復(fù)制為cURL(bash)

繼續(xù)沿用上一步的網(wǎng)站和分析情況,我們只需要在JS網(wǎng)址上進(jìn)行右鍵,然后依次選擇復(fù)制-->復(fù)制為cURL(bash),如下圖所示。

2、使用curl2py工具轉(zhuǎn)換代碼

復(fù)制好之后,我們只需要在Pycharm中運(yùn)行以下代碼,其中代碼中的xxx,就是上面復(fù)制到的curl命令,直接粘貼替換下面的xxx即可。

  1. from curl2py.curlParseTool import curlCmdGenPyScript 
  2.  
  3. curl_cmd = """xxx""" 
  4. output = curlCmdGenPyScript(curl_cmd) 
  5. print(output

3、實例

下面來看實際操作,以剛剛這個網(wǎng)站為例,小編剛剛已經(jīng)復(fù)制了,然后替換粘貼代碼,代碼如下所示。

  1. from curl2py.curlParseTool import curlCmdGenPyScript 
  2.  
  3. curl_cmd = ''
  4. curl 'https://xxkol.cn/api/klist?pagesize=20&page=2&name=&follower_start=&follower_end=&inter_start=&inter_end=&xxpoint_start=&xxpoint_end=&platform=&sex=&attribute=&category=&sort_type=' \ 
  5.   -H 'authority: xxkol.cn' \ 
  6.   -H 'sec-ch-ua: "Chromium";v="92", " Not A;Brand";v="99", "Microsoft Edge";v="92"' \ 
  7.   -H 'accept: application/json, text/plain, */*' \ 
  8.   -H 'authorization: eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJ1c2VyaW5mbyI6eyJvcGVuaWQiOiJvcEowYzB0V2p4RmJ4bTMwQ1FyZE9QSXNaWmlJIiwiaWQiOjEzMzc2fSwiaXNzIjoiaHR0cHM6XC9cL2JhY2sueHhrb2wuY24iLCJhdWQiOiJodHRwczpcL1wvYmFjay54eGtvbC5jbiIsImlhdCI6MTYyOTM1NzExNSwibmJmIjoxNjI5MzU3MTE1LCJleHAiOjE2Mjk5NjE5MTV9.W4l1RoQPNgCXBBBobO49QcfMjgYsM4nuKNtCmKshhHA' \ 
  9.   -H 'sec-ch-ua-mobile: ?0' \ 
  10.   -H 'user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36 Edg/92.0.902.73' \ 
  11.   -H 'sec-fetch-site: same-origin' \ 
  12.   -H 'sec-fetch-mode: cors' \ 
  13.   -H 'sec-fetch-dest: empty' \ 
  14.   -H 'referer: https://xxkol.cn/kol' \ 
  15.   -H 'accept-language: zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6' \ 
  16.   -H 'cookie: Hm_lvt_d4217dc2524e360ff487588dd84ad4ab=; xxtoken=eyJ0eXGciOiJIUzI1NiJ9.eyJ1c2VyaW5mbyI6eyJvcGVuaWQiOiJvcEowYzB0V2p4RmJ4bTMwQ1FyZE9QSXNaWmlJIiwiaWQiOjEzMzc2fSwiaXNzIjoiaHR0cHM6XC9cL2JhY2sueHhrb2wuY24iLCJhdWQiOiJodHRwczpcL1wvYmFjay54eGtvbC5jbiIsImlhdCI6MTYyOTM1NzExNSwibmJmIjoxNjI5MzU3MTE1LCJleHAiOjE2Mjk5NjE5MTV9.W4l1RoQPNgCXBBBobO49QcfMjgYsM4nuKNtCmKshhHA; Hm_lpvt_d4217dc2524e360ff487588dd84ad4ab=1629212' \ 
  17.   --compressed 
  18. ''
  19. output = curlCmdGenPyScript(curl_cmd) 
  20. print(output

運(yùn)行代碼之后,我們在控制臺會得到具體的爬蟲代碼,如下圖所示。

也就是說,都不需要你動手,小小明大佬直接給你把代碼都構(gòu)造出來了,是不是個狠人?

這里我把控制臺輸出的代碼直接拷貝出來,粘貼到這里,這樣大家看得可能會更直觀一些。

  1. ####################################### 
  2. #      The generated by curl2py.       
  3. #      author:小小明                   
  4. ####################################### 
  5.  
  6. import requests 
  7. import json 
  8.  
  9. headers = { 
  10.     "authority""xxkol.cn"
  11.     "sec-ch-ua""\"Chromium\";v=\"92\", \" Not A;Brand\";v=\"99\", \"Microsoft Edge\";v=\"92\""
  12.     "accept""application/json, text/plain, */*"
  13.     "authorization""eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJ1c2VyaW5mbyI6eyJvcGVuaWQiOiJvcEowYzB0V2p4RmJ4bTMwQ1FyZE9QSXNaWmlJIiwiaWQiOjEzMzc2fSwiaXNzIjoiaHR0cHM6XC9cL2JhY2sueHhrb2wuY24iLCJhdWQiOiJodHRwczpcL1wvYmFjay54eGtvbC5jbiIsImlhdCI6MTYyOTM1NzExNSwibmJmIjoxNjI5MzU3MTE1LCJleHAiOjE2Mjk5NjE5MTV9.W4l1RoQPNgCXBBBobO49QcfMjgYsM4nuKNtCmKshhHA"
  14.     "sec-ch-ua-mobile""?0"
  15.     "user-agent""Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36 Edg/92.0.902.73"
  16.     "sec-fetch-site""same-origin"
  17.     "sec-fetch-mode""cors"
  18.     "sec-fetch-dest""empty"
  19.     "referer""https://xxkol.cn/kol"
  20.     "accept-language""zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6" 
  21. cookies = { 
  22.     "Hm_lvt_d4217dc2524e36588dd84ad4ab""1629232919"
  23.     "xxtoken""eyJ0eXAiOiJKVhbGciOiJIUzI1NiJ9.eyJ1c2VyaW5mbyI6eyJvcGVuaWQiOiJvcEowYzB0V2p4RmJ4bTMwQ1FyZE9QSXNaWmlJIiwiaWQiOjEzMzc2fSwiaXNzIjoiaHR0cHM6XC9cL2JhY2sueHhrb2wuY24iLCJhdWQiOiJodHRwczpcL1wvYmFjay54eGtvbC5jbiIsImlhdCI6MTYyOTM1NzExNSwibmJmIjoxNjI5MzU3MTE1LCJleHAiOjE2Mjk5NjE5MTV9.W4l1RoQPNgCXBBBobO49QcfMjgYsM4nuKNtCmKshhHA"
  24.     "Hm_lpvt_d4217dc2524e360ff488dd84ad4ab""16292212" 
  25. params = { 
  26.     "pagesize""20"
  27.     "page""2"
  28.     "name"""
  29.     "follower_start"""
  30.     "follower_end"""
  31.     "inter_start"""
  32.     "inter_end"""
  33.     "xxpoint_start"""
  34.     "xxpoint_end"""
  35.     "platform"""
  36.     "sex"""
  37.     "attribute"""
  38.     "category"""
  39.     "sort_type""" 
  40.  
  41. res = requests.get( 
  42.     "https://xxkol.cn/api/klist"
  43.     params=params, 
  44.     headers=headers, 
  45.     cookies=cookies 
  46. print(res.text) 

喲嚯,這代碼,直接給你呈現(xiàn)出來了,講真,這代碼比我們自己寫出來的還要好呢,真是tql!

有的吃瓜群眾可能就要問了,小編啊,這個代碼能跑嘛?當(dāng)然可以了!下面一起來運(yùn)行下吧!直接在Pycharm里邊復(fù)制控制臺的代碼,將首尾兩行Pycharm自帶的提示去除,就可以跑了,右鍵運(yùn)行,得到下圖的結(jié)果。

可以看到返回code 0,說明程序運(yùn)行成功,而且可以看到滾動條那么小,可以想象數(shù)據(jù)量還是蠻大的,這個數(shù)據(jù)一看就是json格式的,直接將結(jié)果放到在線json網(wǎng)站中去看看。

json在線解析網(wǎng)址:https://www.sojson.com/

然后點(diǎn)擊紅色框框中的校驗/格式化,可以看到j(luò)son格式的數(shù)據(jù),如下圖所示。

這下看上去是不是清爽很多了呢?

四、總結(jié)

我是Python進(jìn)階者,這篇文章主要給大家介紹了curl2py工具及其用法。curl2py工具的確是一個神器,功能強(qiáng)大,而且十分方便,有了它,基本上網(wǎng)頁請求數(shù)據(jù)的復(fù)制、粘貼等傳統(tǒng)方式都通通幫你搞定了,而且省事省心省力,還不用擔(dān)心翻車。小伙伴們,你學(xué)會了嘛?快快用起來吧!

 

責(zé)任編輯:姜華 來源: Python爬蟲與數(shù)據(jù)挖掘
相關(guān)推薦

2018-05-14 15:27:06

Python網(wǎng)絡(luò)爬蟲爬蟲架構(gòu)

2018-05-22 15:30:30

Python網(wǎng)絡(luò)爬蟲分布式爬蟲

2020-07-10 08:24:18

Python開發(fā)工具

2018-05-14 16:34:08

Python網(wǎng)絡(luò)爬蟲Scrapy

2018-05-16 15:46:06

Python網(wǎng)絡(luò)爬蟲PhantomJS

2018-05-16 13:50:30

Python網(wǎng)絡(luò)爬蟲Scrapy

2018-05-22 16:28:46

Python網(wǎng)絡(luò)爬蟲URL去重

2021-01-30 10:37:18

ScrapyGerapy網(wǎng)絡(luò)爬蟲

2022-03-30 09:11:00

Python網(wǎng)絡(luò)爬蟲

2021-11-09 09:01:36

Python網(wǎng)絡(luò)爬蟲Python基礎(chǔ)

2018-05-14 14:02:41

Python爬蟲網(wǎng)易云音樂

2021-04-01 09:02:38

Python小說下載網(wǎng)絡(luò)爬蟲

2021-07-14 09:00:00

JavaFX開發(fā)應(yīng)用

2021-07-01 09:31:50

MySQL SQL 語句數(shù)據(jù)庫

2022-12-07 08:42:35

2022-04-12 08:46:12

i2c-tools開源工具

2020-08-12 09:07:53

Python開發(fā)爬蟲

2021-09-26 16:08:23

CC++clang_forma

2020-11-10 09:11:02

采集數(shù)據(jù)

2021-08-02 07:35:19

Nacos配置中心namespace
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號