自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

開(kāi)發(fā) 后端 數(shù)據(jù)分析
獲取數(shù)據(jù),其實(shí)邏輯并不復(fù)雜:爬取歌單列表里的所有歌單url、進(jìn)入每篇歌單爬取所有歌曲url,去重、進(jìn)入每首歌曲首頁(yè)爬取熱評(píng),匯總。

獲取數(shù)據(jù)

其實(shí)邏輯并不復(fù)雜:

  • 爬取歌單列表里的所有歌單url。
  • 進(jìn)入每篇歌單爬取所有歌曲url,去重。
  • 進(jìn)入每首歌曲首頁(yè)爬取熱評(píng),匯總。

歌單列表是這樣的:

 

Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

翻頁(yè)并觀察它的url變化,注意下方動(dòng)圖,每次翻頁(yè)末尾變化35。 

Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

采用requests+pyquery來(lái)爬取:

  1. def get_list(): 
  2.  list1 = [] 
  3.  for i in range(0,1295,35): 
  4.  url = 'https://music.163.com/discover/playlist/?order=hot&cat=%E5%8D%8E%E8%AF%AD&limit=35&offset='+str(i) 
  5.  print('已成功采集%i頁(yè)歌單\n' %(i/35+1)) 
  6.  data = [] 
  7.  html = restaurant(url) 
  8.  doc = pq(html) 
  9.  for i in range(1,36): # 一頁(yè)35個(gè)歌單 
  10.  a = doc('#m-pl-container > li:nth-child(' + str(i) +') > div > a').attr('href'
  11.  a1 = 'https://music.163.com/api' + a.replace('?','/detail?'
  12.  data.append(a1) 
  13.  list1.extend(data) 
  14.  time.sleep(5+random.random()) 
  15.  return list1 

這樣我們就可以獲得38頁(yè)每頁(yè)35篇歌單,共1300+篇歌單。

下面我們需要進(jìn)入每篇歌單爬取所有歌曲url,并且要注意最后“去重”,不同歌單可能包含同一首歌曲。

點(diǎn)開(kāi)一篇歌單,注意紅色圈出的id。 

Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

觀察一下,我們要在每篇歌單下方獲取的信息也就是紅框圈出的這些,利用剛剛爬取到的歌單id和網(wǎng)易云音樂(lè)的api可以構(gòu)造出: 

Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

不方便看的話我們解析一下json。 

Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手
  1. def get_playlist(url): 
  2.  data = [] 
  3.  doc = get_json(url) 
  4.  obj=json.loads(doc) 
  5.  jobs=obj['result']['tracks'
  6.  for job in jobs: 
  7.  dic = {} 
  8.  dic['name']=jsonpath.jsonpath(job,'$..name')[0] #歌曲名稱 
  9.  dic['id']=jsonpath.jsonpath(job,'$..id')[0] #歌曲ID 
  10.  data.append(dic) 
  11.  return data  

這樣我們就獲取了所有歌單下的歌曲,記得去重。

  1. #去重 
  2. data = data.drop_duplicates(subset=None, keep='first', inplace=True)  

剩下就是獲取每首歌曲的熱評(píng)了,與前面獲取歌曲類似,也是根據(jù)api構(gòu)造,很容易就找到了。 

Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手
  1. def get_comments(url,k): 
  2.  data = [] 
  3.  doc = get_json(url) 
  4.  obj=json.loads(doc) 
  5.  jobs=obj['hotComments'
  6.  for job in jobs: 
  7.  dic = {} 
  8.  dic['content']=jsonpath.jsonpath(job,'$..content')[0]  
  9.  dic['time']= stampToTime(jsonpath.jsonpath(job,'$..time')[0]) 
  10.  dic['userId']=jsonpath.jsonpath(job['user'],'$..userId')[0] #用戶ID 
  11.  dic['nickname']=jsonpath.jsonpath(job['user'],'$..nickname')[0]#用戶名 
  12.  dic['likedCount']=jsonpath.jsonpath(job,'$..likedCount')[0]  
  13.  dic['name']= k 
  14.  data.append(dic) 
  15.  return data  

匯總后就獲得了44萬(wàn)條音樂(lè)熱評(píng)數(shù)據(jù)。 

Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

數(shù)據(jù)分析

清洗填充一下。

  1. def data_cleaning(data): 
  2.  cols = data.columns 
  3.  for col in cols: 
  4.  if data[col].dtype == 'object'
  5.  data[col].fillna('缺失數(shù)據(jù)', inplace = True
  6.  else
  7.  data[col].fillna(0, inplace = True
  8.  return(data) 

按照點(diǎn)贊數(shù)排個(gè)序。

  1. #排序 
  2. df1['likedCount'] = df1['likedCount'].astype('int'
  3. df_2 = df1.sort_values(by="likedCount",ascending=False
  4. df_2.head() 

 Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

再看看哪些熱評(píng)是被復(fù)制粘貼搬來(lái)搬去的。

  1. #排序 
  2. df_line = df.groupby(['content']).count().reset_index().sort_values(by="name",ascending=False
  3. df_line.head() 

 Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

第一個(gè)和第三個(gè)只是末尾有沒(méi)有句號(hào)的區(qū)別,可以歸為一類。這樣的話,重復(fù)次數(shù)最多個(gè)這句話竟然重復(fù)了412次,額~~

看看上熱評(píng)次數(shù)次數(shù)最多的是哪位大神?從他的身上我們能學(xué)到什么經(jīng)驗(yàn)?

  1. df_user = df.groupby(['userId']).count().reset_index().sort_values(by="name",ascending=False
  2. df_user.head() 

按照 user_id 匯總一下,排序。 

Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

成功“捕獲”一枚“段子手”,上熱評(píng)次數(shù)高達(dá)347,我們?cè)倏纯催@位大神究竟都評(píng)論些什么?

  1. df_user_max = df.loc[(df['userId'] == 101***770)] 
  2. df_user_max.head() 

 Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

這位“失眠的陳先生”看來(lái)各種情話嫻熟于手啊,下面就以他舉例來(lái)看看如何成為網(wǎng)易云音樂(lè)評(píng)論里的熱評(píng)段子手吧。

數(shù)據(jù)可視化

先看看這347條評(píng)論的贊數(shù)分布。

  1. #贊數(shù)分布圖 
  2. import matplotlib.pyplot as plt 
  3. data = df_user_max['likedCount'
  4. #data.to_csv("df_user_max.csv", index_label="index_label",encoding='utf-8-sig'
  5. plt.hist(data,100,normed=True,facecolor='g',alpha=0.9) 
  6. plt.show() 

 Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

很明顯,贊數(shù)并不多,大部分都在500贊之內(nèi),幾百贊卻能躋身熱評(píng),這也側(cè)面說(shuō)明了這些歌曲是比較小眾的,看來(lái)是經(jīng)常在新歌區(qū)廣撒網(wǎng)。

我們使用len() 求出每條評(píng)論的字符串長(zhǎng)度,再畫個(gè)分布圖: 

Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手

評(píng)論的字?jǐn)?shù)集中在18—30字之間,這說(shuō)明在留言時(shí)要注意字?jǐn)?shù),保險(xiǎn)的做法是不要太長(zhǎng)讓人讀不下去,也不要太短以免不夠經(jīng)典。

做個(gè)詞云。 

Python爬蟲(chóng)44萬(wàn)條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂(lè)評(píng)論區(qū)的網(wǎng)紅段子手 

 

責(zé)任編輯:未麗燕 來(lái)源: 今日頭條
相關(guān)推薦

2018-08-27 07:01:33

數(shù)據(jù)分析數(shù)據(jù)可視化租房

2019-07-16 08:51:03

熱搜新浪微博數(shù)據(jù)

2018-07-22 15:57:00

數(shù)據(jù)可視化大數(shù)據(jù)數(shù)據(jù)分析

2011-03-31 11:24:14

數(shù)據(jù)搜索本文字段

2021-11-02 14:46:50

數(shù)據(jù)

2023-10-19 15:13:25

2019-11-28 18:54:50

數(shù)據(jù)庫(kù)黑客軟件

2022-06-17 10:15:35

面試API前端

2022-04-28 20:12:44

二分法搜索算法

2024-04-09 07:56:36

MySQL數(shù)據(jù)性能

2017-07-22 22:11:36

數(shù)據(jù)丟失操作

2018-07-09 16:21:17

網(wǎng)易云

2024-05-11 12:34:51

EasyExcelOOM代碼

2022-10-27 21:32:28

數(shù)據(jù)互聯(lián)網(wǎng)數(shù)據(jù)中心

2023-06-12 07:44:21

大數(shù)據(jù)數(shù)據(jù)治理

2014-01-21 17:36:58

2013-03-04 10:57:01

網(wǎng)易云音樂(lè)

2018-09-13 09:39:03

騰訊運(yùn)維IT

2022-04-12 16:39:55

數(shù)據(jù)泄露網(wǎng)絡(luò)攻擊

2025-03-07 11:17:09

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)