自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

用Python爬取某寶2008條棉襖商品數(shù)據(jù),進行可視化分析,終于找到值得入手的棉襖

開發(fā) 后端
數(shù)據(jù)采集是數(shù)據(jù)可視化分析的第一步,也是最基礎的一步,數(shù)據(jù)采集的數(shù)量和質量越高,后面分析的準確性也就越高,我們來看一下淘寶網(wǎng)的數(shù)據(jù)該如何爬取。

[[432998]]

文末本文轉載自微信公眾號「志斌的python筆記」,作者 志斌 。轉載本文請聯(lián)系志斌的python筆記公眾號。

大家好,我是志斌~

轉眼就到11月份了,本以為能在大連過一個浪漫的秋天,但是沒想到今年的大連沒有秋天,直接到了寒風刺骨的冬天。。。

于是,志斌趕緊打開了Python,用它爬取并分析一波棉襖,找到一件最合適的棉襖給裹到身上。

一、數(shù)據(jù)采集

數(shù)據(jù)采集是數(shù)據(jù)可視化分析的第一步,也是最基礎的一步,數(shù)據(jù)采集的數(shù)量和質量越高,后面分析的準確的也就越高,我們來看一下淘寶網(wǎng)的數(shù)據(jù)該如何爬取。

淘寶網(wǎng)站是一個動態(tài)加載的網(wǎng)站,我們之前可以采用解析接口或者用Selenium自動化測試工具來爬取數(shù)據(jù),但是現(xiàn)在淘寶對接口進行了加密,使我們很難分析出來其中的規(guī)律,同時淘寶也對Selenium進行了反爬限制,所以我們要換種思路來進行數(shù)據(jù)獲取。

打開開發(fā)者模式,開始對網(wǎng)頁進行觀察后發(fā)現(xiàn),淘寶商品的數(shù)據(jù)竟然在源網(wǎng)頁中存儲著。

我翻了幾頁網(wǎng)頁之后發(fā)現(xiàn),每翻一頁,網(wǎng)頁的params參數(shù)中的s參數(shù)就會增加44(初始值是0)。

經(jīng)過以上分析,現(xiàn)在我們就可以開始構造爬蟲程序了。

1.導入爬蟲使用的庫

  1. import requests 
  2. import re 
  3. import time 
  4. import random 
  5. import openpyxl 

2.發(fā)起請求

  1. for page in range(1,101): 
  2.    params = ( 
  3.        ('q''棉襖'), 
  4.        ('imgfile'''), 
  5.        ('commend''all'), 
  6.        ('ssid''s5-e'), 
  7.        ('search_type''item'), 
  8.        ('sourceId''tb.index'), 
  9.        ('spm''a21bo.jianhua.201856-taobao-item.2'), 
  10.        ('ie''utf8'), 
  11.        ('initiative_id''tbindexz_20170306'), 
  12.        ('hintq''1'), 
  13.        ('s', str(page*44)), 
  14.    ) 
  15. response = requests.get(url,  params=params) 

3.數(shù)據(jù)存儲

  1. a = 0 
  2. b = 0 
  3. for i in range(44): 
  4.     try: 
  5.         sheet.append([dianpumingcheng[i],shangpinming[i],float(jiage[i]),fahuodi[i],fukuanrenshu[i]]) 
  6.     except
  7.         a+=1 
  8.         if a>30: 
  9.             print(f"第{page}頁數(shù)據(jù)未爬取......"
  10.             wb.save('棉襖.xlsx'
  11.             # 把xxx改成你想要的存儲的名稱即可 
  12.             b = 1 
  13.             break 
  14. if b == 1: 
  15.     break 
  16. print(f"已爬取完第{page}頁數(shù)據(jù)......"
  17. time.sleep(random.randint(3,5)) 
  18. nt(f'共爬取{page}頁數(shù)據(jù)......'

二、數(shù)據(jù)清洗

數(shù)據(jù)采集后,要對其進行清洗,剔除臟數(shù)據(jù),用以提高分析的準確性。

1.導入商品數(shù)據(jù)

用pandas讀取爬取后的商品數(shù)據(jù)并預覽。

  1. import pandas as pd 
  2. df = pd.read_excel('棉襖.xlsx',names=['店鋪名稱','商品名','價格','產(chǎn)地','付款人數(shù)']) 
  3. print(df.head()) 

2.刪除重復數(shù)據(jù)

  1. df.drop_duplicates() 

刪除重復數(shù)據(jù)后,還有2008條數(shù)據(jù)。

3.數(shù)據(jù)類型轉換

我們發(fā)現(xiàn)付款人數(shù)是字符串類型,我們需要將其轉換成整數(shù)類型。

  1. wb = openpyxl.load_workbook('棉襖.xlsx'
  2. int_list = [] 
  3. sheet = wb['Sheet'
  4. for i in range(2,2008): 
  5.    str = sheet[f'E{i}'].value 
  6.    if '萬+' in str: 
  7.        int_list.append(int(int(str[:-2])*random.uniform(1,2)*10000)) 
  8.    elif '+' in str: 
  9.        int_list.append(int(int(str[:-1])+random.random()*1000)) 
  10.    else
  11.        int_list.append(int(str)) 
  12. for i in range(2,2008): 
  13.    sheet.cell(i,5).value = int_list[i-2] 
  14. wb.save('3.xlsx'

4.查看數(shù)據(jù)類型

查看字段類型和缺失值情況,符合分析需要,無需另做處理。

  1. df.info() 

三、可視化分析

我們來對這2008家棉襖商品數(shù)據(jù)進行可視化分析??梢暬瘓D是由Python、Tableau和Excel共同繪制而來。

1.在售棉襖特點

通過對棉襖的商品名稱進行詞云圖繪制,我們發(fā)現(xiàn),今年棉襖的樣式以寬松、潮流、韓版、短款類居多。

制作代碼如下:

  1. from imageio import imread 
  2. import jieba 
  3. from wordcloud import WordCloud, STOPWORDS 
  4.  
  5. with open("1.txt",'r',encoding='utf-8'as f: 
  6.  job_title_1 = f.read() 
  7. contents_cut_job_title = jieba.cut(job_title_1) 
  8. contents_list_job_title = " ".join(contents_cut_job_title) 
  9. wc = WordCloud(stopwords=STOPWORDS.add("一個"), collocations=False
  10.             background_color="white"
  11.             font_path=r"K:\msyh.ttc"
  12.             width=400, height=300, random_state=42, 
  13.             mask=imread('棉襖.jpg', pilmode="RGB"
  14.             ) 
  15. wc.generate(contents_list_job_title) 
  16. wc.to_file("推薦語.png"

2.各省產(chǎn)量分布圖

通過對各商品的產(chǎn)地數(shù)據(jù)進行統(tǒng)計并繪制了全國地圖,我們發(fā)現(xiàn)浙江、廣東和福建這三個地方生產(chǎn)棉襖最多,分別是914家、261家和203家。

制作代碼如下:

  1. import openpyxl 
  2. from collections import Counter 
  3. from pyecharts import Map 
  4. wb = openpyxl.load_workbook('棉襖.xlsx'
  5. sheet = wb['Sheet'
  6. a = [] 
  7. for i in range(2,1960): 
  8.  D = sheet[f'D{i}'
  9.  a.append(D.value) 
  10. province_distribution = dict(Counter(a)) 
  11. provice = list(province_distribution.keys()) 
  12. values = list(province_distribution.values()) 
  13. map = Map("中國地圖",width=1200, height=600) 
  14. map.add("", provice, values, visual_range=[0, 50], maptype='china', is_visualmap=True
  15. visual_text_color='#000',is_label_show=True
  16. map.render(path="地圖.html"

我們進一步對浙江省的產(chǎn)地數(shù)據(jù)進行分析發(fā)現(xiàn),杭州的棉襖商家最多,占全省的40%。

3.棉襖價格區(qū)間分布

我們對棉襖價格以100為分點,進行可視化后發(fā)現(xiàn),價格在100-200的棉襖商品最多,有869家,其次是價格在201-300之間的,有501家??磥砻抟\的價格還是相對便宜的~

4.棉襖月銷量top20商家

銷量最高的竟然不是旗艦店,是一個李廣森的自制時尚女裝店,志斌打開她們家的店鋪看了看,感覺還不錯,可以給對象入手一套~

四、小結

1. 本文僅供學習研究使用,提供的評論僅供參考。如有不妥之處請及時告知作者。

 

責任編輯:武曉燕 來源: 志斌的python筆記
相關推薦

2022-09-06 08:01:23

數(shù)據(jù)采集數(shù)據(jù)可視化加密

2022-06-15 08:25:07

Python天氣數(shù)據(jù)可視化分析

2021-06-04 12:56:22

數(shù)據(jù)分析崗位

2021-06-30 23:38:56

Python微信好友

2016-11-25 11:16:22

阿里支付寶數(shù)據(jù)分析

2018-03-07 09:35:08

Python淘寶數(shù)據(jù)

2019-01-16 18:34:37

Python 開發(fā)數(shù)據(jù)

2016-11-28 15:03:06

Python數(shù)據(jù)可視化網(wǎng)絡分析

2021-05-11 07:49:31

Python數(shù)據(jù)分析

2023-07-26 12:38:42

PyGWalker數(shù)據(jù)類型

2017-01-05 16:48:50

Python道路數(shù)據(jù)數(shù)據(jù)可視化

2020-09-09 12:15:50

大數(shù)據(jù)互聯(lián)網(wǎng)可視化

2018-01-25 14:34:18

大數(shù)據(jù)可視化工具

2020-09-27 14:56:33

工具數(shù)據(jù)可視化技術

2021-11-29 13:29:06

Basemap可視化分析

2021-05-06 09:57:18

Python 開發(fā)編程語言

2018-01-03 17:22:22

DataHunter數(shù)據(jù)可視化分析

2018-11-14 10:15:58

開源技術 數(shù)據(jù)

2020-01-18 10:27:07

簡書知乎Python
點贊
收藏

51CTO技術棧公眾號