自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

用php做爬蟲 百萬級(jí)別知乎用戶數(shù)據(jù)爬取與分析

大數(shù)據(jù)
這次抓取了110萬的用戶數(shù)據(jù),數(shù)據(jù)分析結(jié)果如下:

這次抓取了110萬的用戶數(shù)據(jù),數(shù)據(jù)分析結(jié)果如下:

知乎大數(shù)據(jù)

從結(jié)果可以看到,知乎的男女分布為61.7和38.3%,對(duì)于一個(gè)知識(shí)型、問答型的社區(qū)來說,已經(jīng)很優(yōu)秀了,女生再多一點(diǎn)的話,知乎差不多都可以做婚戀社區(qū)了,開個(gè)玩笑。

對(duì)了,在《爬了3000萬QQ用戶數(shù)據(jù),挖出了花千骨趙麗穎的QQ號(hào)》 一文中,我們可以看到,除了沒有填寫姓名的用戶外,QQ空間的男女比例為56%和23%。這個(gè)數(shù)據(jù)可以作為一個(gè)參考。且不論女性多少,但看男性用戶,知乎只比QQ空間少了5%.

知乎大數(shù)據(jù)

從職業(yè)分布來看,知乎用戶中,從事互聯(lián)網(wǎng)行業(yè)的用戶是最多的。傳統(tǒng)行業(yè)從業(yè)者相對(duì)較少,這和知乎的定位也有很大的關(guān)系。

知乎大數(shù)據(jù)

北上廣深仍然是用戶人群最多的城市。值得注意的是,杭州用戶比廣州用戶還多,這說明杭州的互聯(lián)網(wǎng)行業(yè)發(fā)展迅猛,有阿里巴巴的緣故?

知乎大數(shù)據(jù)

看懂啦?還是技術(shù)宅比較多,尤其是程序員。結(jié)合男女比例來看,知乎做到這樣的數(shù)據(jù)非常不易,從事互聯(lián)網(wǎng)行業(yè)的人較多,而這群人里面,還有38.3%是妹子哦。對(duì)了,女性分布為什么是38.3的比例?三八……

下面是技術(shù)正文:

開發(fā)前的準(zhǔn)備

安裝Linux系統(tǒng)(Ubuntu14.04),在VMWare虛擬機(jī)下安裝一個(gè)Ubuntu;

安裝PHP5.6或以上版本;

安裝curl、pcntl擴(kuò)展。

使用PHP的curl擴(kuò)展抓取頁面數(shù)據(jù)

PHP的curl擴(kuò)展是PHP支持的允許你與各種服務(wù)器使用各種類型的協(xié)議進(jìn)行連接和通信的庫。

本程序是抓取知乎的用戶數(shù)據(jù),要能訪問用戶個(gè)人頁面,需要用戶登錄后的才能訪問。當(dāng)我們?cè)跒g覽器的頁面中點(diǎn)擊一個(gè)用戶頭像鏈接進(jìn)入用戶個(gè)人中心頁面的時(shí)候,之所以能夠看到用戶的信息,是因?yàn)樵邳c(diǎn)擊鏈接的時(shí)候,瀏覽器幫你將本地的cookie帶上一齊提交到新的頁面,所以你就能進(jìn)入到用戶的個(gè)人中心頁面。因此實(shí)現(xiàn)訪問個(gè)人頁面之前需要先獲得用戶的cookie信息,然后在每次curl請(qǐng)求的時(shí)候帶上cookie信息。在獲取cookie信息方面,我是用了自己的cookie,在頁面中可以看到自己的cookie信息:

 

數(shù)據(jù)采集

一個(gè)個(gè)地復(fù)制,以”__utma=?;__utmb=?;”這樣的形式組成一個(gè)cookie字符串。接下來就可以使用該cookie字符串來發(fā)送請(qǐng)求。

初始的示例:

  1. $url = 'http://www.zhihu.com/people/mora-hu/about'; //此處mora-hu代表用戶ID 
  2.     $ch = curl_init($url); //初始化會(huì)話 
  3.     curl_setopt($ch, CURLOPT_HEADER, 0); 
  4.     curl_setopt($ch, CURLOPT_COOKIE, $this->config_arr['user_cookie']);  //設(shè)置請(qǐng)求COOKIE 
  5.     curl_setopt($ch, CURLOPT_USERAGENT, $_SERVER['HTTP_USER_AGENT']); 
  6.     curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);  //將curl_exec()獲取的信息以文件流的形式返回,而不是直接輸出。 
  7.     curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1);   
  8.     $result = curl_exec($ch); 
  9.     return $result;  //抓取的結(jié)果 

運(yùn)行上面的代碼可以獲得mora-hu用戶的個(gè)人中心頁面。利用該結(jié)果再使用正則表達(dá)式對(duì)頁面進(jìn)行處理,就能獲取到姓名,性別等所需要抓取的信息。
 

圖片防盜鏈

在對(duì)返回結(jié)果進(jìn)行正則處理后輸出個(gè)人信息的時(shí)候,發(fā)現(xiàn)在頁面中輸出用戶頭像時(shí)無法打開。經(jīng)過查閱資料得知,是因?yàn)橹鯇?duì)圖片做了防盜鏈處理。解決方案就是請(qǐng)求圖片的時(shí)候在請(qǐng)求頭里偽造一個(gè)referer。

在使用正則表達(dá)式獲取到圖片的鏈接之后,再發(fā)一次請(qǐng)求,這時(shí)候帶上圖片請(qǐng)求的來源,說明該請(qǐng)求來自知乎網(wǎng)站的轉(zhuǎn)發(fā)。具體例子如下:

  1. function getImg($url, $u_id) 
  2.     if (file_exists('./images/' . $u_id . ".jpg")) 
  3.     { 
  4.         return "images/$u_id" . '.jpg'
  5.     } 
  6.     if (empty($url)) 
  7.     { 
  8.         return ''
  9.     } 
  10.     $context_options = array(   
  11.         'http' =>   
  12.         array( 
  13.             'header' => "Referer:http://www.zhihu.com"//帶上referer參數(shù)  
  14.       ) 
  15.   ); 
  16.        
  17.     $context = stream_context_create($context_options);   
  18.     $img = file_get_contents('http:' . $url, FALSE, $context); 
  19.     file_put_contents('./images/' . $u_id . ".jpg", $img); 
  20.     return "images/$u_id" . '.jpg'

爬取更多用戶

抓取了自己的個(gè)人信息后,就需要再訪問用戶的關(guān)注者和關(guān)注了的用戶列表獲取更多的用戶信息。然后一層一層地訪問。可以看到,在個(gè)人中心頁面里,有兩個(gè)鏈接如下:

數(shù)據(jù)采集

 

 

這里有兩個(gè)鏈接,一個(gè)是關(guān)注了,另一個(gè)是關(guān)注者,以“關(guān)注了”的鏈接為例。用正則匹配去匹配到相應(yīng)的鏈接,得到url之后用curl帶上cookie再發(fā)一次請(qǐng)求。抓取到用戶關(guān)注了的用于列表頁之后,可以得到下面的頁面:

數(shù)據(jù)采集

右鍵點(diǎn)擊可放大

 

 

分析頁面的html結(jié)構(gòu),因?yàn)橹灰玫接脩舻男畔?,所以只需要框住的這一塊的div內(nèi)容,用戶名都在這里面??梢钥吹?,用戶關(guān)注了的頁面的url是:

數(shù)據(jù)采集

不同的用戶的這個(gè)url幾乎是一樣的,不同的地方就在于用戶名那里。用正則匹配拿到用戶名列表,一個(gè)一個(gè)地拼url,然后再逐個(gè)發(fā)請(qǐng)求(當(dāng)然,一個(gè)一個(gè)是比較慢的,下面有解決方案,這個(gè)稍后會(huì)說到)。進(jìn)入到新用戶的頁面之后,再重復(fù)上面的步驟,就這樣不斷循環(huán),直到達(dá)到你所要的數(shù)據(jù)量。
 

Linux統(tǒng)計(jì)文件數(shù)量

腳本跑了一段時(shí)間后,需要看看究竟獲取了多少圖片,當(dāng)數(shù)據(jù)量比較大的時(shí)候,打開文件夾查看圖片數(shù)量就有點(diǎn)慢。腳本是在Linux環(huán)境下運(yùn)行的,因此可以使用Linux的命令來統(tǒng)計(jì)文件數(shù)量:

ls -l | grep "^-" | wc -l

其中, ls -l 是長(zhǎng)列表輸出該目錄下的文件信息(這里的文件可以是目錄、鏈接、設(shè)備文件等); grep “^-“ 過濾長(zhǎng)列表輸出信息, “^-”  只保留一般文件,如果只保留目錄是 “^d” ; wc -l 是統(tǒng)計(jì)輸出信息的行數(shù)。下面是一個(gè)運(yùn)行示例:

數(shù)據(jù)采集

 

插入MySQL時(shí)重復(fù)數(shù)據(jù)的處理

程序運(yùn)行了一段時(shí)間后,發(fā)現(xiàn)有很多用戶的數(shù)據(jù)是重復(fù)的,因此需要在插入重復(fù)用戶數(shù)據(jù)的時(shí)候做處理。處理方案如下:

1)插入數(shù)據(jù)庫之前檢查數(shù)據(jù)是否已經(jīng)存在數(shù)據(jù)庫;

2)添加唯一索引,插入時(shí)使用 INSERT INTO … ON DUPLICATE KEY UPDATE…

3)添加唯一索引,插入時(shí)使用 INSERT INGNORE INTO…

4)添加唯一索引,插入時(shí)使用 REPLACE INTO…

 

使用curl_multi實(shí)現(xiàn)I/O復(fù)用抓取頁面

剛開始單進(jìn)程而且單個(gè)curl去抓取數(shù)據(jù),速度很慢,掛機(jī)爬了一個(gè)晚上只能抓到2W的數(shù)據(jù),于是便想到能不能在進(jìn)入新的用戶頁面發(fā)curl請(qǐng)求的時(shí)候一次性請(qǐng)求多個(gè)用戶,后來發(fā)現(xiàn)了curl_multi這個(gè)好東西。curl_multi這類函數(shù)可以實(shí)現(xiàn)同時(shí)請(qǐng)求多個(gè)url,而不是一個(gè)個(gè)請(qǐng)求,這是一種I/O復(fù)用的機(jī)制。下面是使用curl_multi爬蟲的示例:

 

  1. $mh = curl_multi_init(); //返回一個(gè)新cURL批處理句柄 
  2.  for ($i = 0; $i < $max_size; $i++) 
  3.  { 
  4.      $ch = curl_init();  //初始化單個(gè)cURL會(huì)話 
  5.      curl_setopt($ch, CURLOPT_HEADER, 0); 
  6.      curl_setopt($ch, CURLOPT_URL, 'http://www.zhihu.com/people/' . $user_list[$i] . '/about'); 
  7.      curl_setopt($ch, CURLOPT_COOKIE, self::$user_cookie); 
  8.      curl_setopt($ch, CURLOPT_USERAGENT, 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.130 Safari/537.36'); 
  9.      curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);  
  10.      curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1); 
  11.      $requestMap[$i] = $ch; 
  12.      curl_multi_add_handle($mh, $ch);  //向curl批處理會(huì)話中添加單獨(dú)的curl句柄 
  13.  } 
  14.  
  15.  $user_arr = array(); 
  16.  do { 
  17.                  //運(yùn)行當(dāng)前 cURL 句柄的子連接 
  18.      while (($cme = curl_multi_exec($mh, $active)) == CURLM_CALL_MULTI_PERFORM); 
  19.       
  20.      if ($cme != CURLM_OK) {break;} 
  21.                  //獲取當(dāng)前解析的cURL的相關(guān)傳輸信息 
  22.      while ($done = curl_multi_info_read($mh)) 
  23.      { 
  24.          $info = curl_getinfo($done['handle']); 
  25.          $tmp_result = curl_multi_getcontent($done['handle']); 
  26.          $error = curl_error($done['handle']); 
  27.  
  28.          $user_arr[] = array_values(getUserInfo($tmp_result)); 
  29.  
  30.          //保證同時(shí)有$max_size個(gè)請(qǐng)求在處理 
  31.          if ($i < sizeof($user_list) && isset($user_list[$i]) && $i < count($user_list)) 
  32.          { 
  33.              $ch = curl_init(); 
  34.              curl_setopt($ch, CURLOPT_HEADER, 0); 
  35.              curl_setopt($ch, CURLOPT_URL, 'http://www.zhihu.com/people/' . $user_list[$i] . '/about'); 
  36.              curl_setopt($ch, CURLOPT_COOKIE, self::$user_cookie); 
  37.              curl_setopt($ch, CURLOPT_USERAGENT, 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.130 Safari/537.36'); 
  38.              curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);  
  39.              curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1); 
  40.              $requestMap[$i] = $ch; 
  41.              curl_multi_add_handle($mh, $ch); 
  42.  
  43.              $i++; 
  44.          } 
  45.  
  46.          curl_multi_remove_handle($mh, $done['handle']); 
  47.      } 
  48.  
  49.      if ($active) 
  50.          curl_multi_select($mh, 10); 
  51.  } while ($active); 
  52.  
  53.  curl_multi_close($mh); 
  54.  return $user_arr; 

HTTP 429 Too Many Requests

使用curl_multi函數(shù)可以同時(shí)發(fā)多個(gè)請(qǐng)求,但是在執(zhí)行過程中使同時(shí)發(fā)200個(gè)請(qǐng)求的時(shí)候,發(fā)現(xiàn)很多請(qǐng)求無法返回了,即發(fā)現(xiàn)了丟包的情況。進(jìn)一步分析,使用 curl_getinfo 函數(shù)打印每個(gè)請(qǐng)求句柄信息,該函數(shù)返回一個(gè)包含HTTP response信息的關(guān)聯(lián)數(shù)組,其中有一個(gè)字段是http_code,表示請(qǐng)求返回的HTTP狀態(tài)碼??吹接泻芏鄠€(gè)請(qǐng)求的http_code都是429,這個(gè)返回碼的意思是發(fā)送太多請(qǐng)求了。我猜是知乎做了防爬蟲的防護(hù),于是我就拿其他的網(wǎng)站來做測(cè)試,發(fā)現(xiàn)一次性發(fā)200個(gè)請(qǐng)求時(shí)沒問題的,證明了我的猜測(cè),知乎在這方面做了防護(hù),即一次性的請(qǐng)求數(shù)量是有限制的。于是我不斷地減少請(qǐng)求數(shù)量,發(fā)現(xiàn)在5的時(shí)候就沒有丟包情況了。說明在這個(gè)程序里一次性最多只能發(fā)5個(gè)請(qǐng)求,雖然不多,但這也是一次小提升了。

使用Redis保存已經(jīng)訪問過的用戶

抓取用戶的過程中,發(fā)現(xiàn)有些用戶是已經(jīng)訪問過的,而且他的關(guān)注者和關(guān)注了的用戶都已經(jīng)獲取過了,雖然在數(shù)據(jù)庫的層面做了重復(fù)數(shù)據(jù)的處理,但是程序還是會(huì)使用curl發(fā)請(qǐng)求,這樣重復(fù)的發(fā)送請(qǐng)求就有很多重復(fù)的網(wǎng)絡(luò)開銷。還有一個(gè)就是待抓取的用戶需要暫時(shí)保存在一個(gè)地方以便下一次執(zhí)行,剛開始是放到數(shù)組里面,后來發(fā)現(xiàn)要在程序里添加多進(jìn)程,在多進(jìn)程編程里,子進(jìn)程會(huì)共享程序代碼、函數(shù)庫,但是進(jìn)程使用的變量與其他進(jìn)程所使用的截然不同。不同進(jìn)程之間的變量是分離的,不能被其他進(jìn)程讀取,所以是不能使用數(shù)組的。因此就想到了使用Redis緩存來保存已經(jīng)處理好的用戶以及待抓取的用戶。這樣每次執(zhí)行完的時(shí)候都把用戶push到一個(gè)already_request_queue隊(duì)列中,把待抓取的用戶(即每個(gè)用戶的關(guān)注者和關(guān)注了的用戶列表)push到request_queue里面,然后每次執(zhí)行前都從request_queue里pop一個(gè)用戶,然后判斷是否在already_request_queue里面,如果在,則進(jìn)行下一個(gè),否則就繼續(xù)執(zhí)行。

在PHP中使用redis示例:


  1. <?php 
  2.     $redis = new Redis(); 
  3.     $redis->connect('127.0.0.1''6379'); 
  4.     $redis->set('tmp''value'); 
  5.     if ($redis->exists('tmp')) 
  6.     { 
  7.         echo $redis->get('tmp') . "\n"
  8.     } 

使用PHP的pcntl擴(kuò)展實(shí)現(xiàn)多進(jìn)程

改用了curl_multi函數(shù)實(shí)現(xiàn)多線程抓取用戶信息之后,程序運(yùn)行了一個(gè)晚上,最終得到的數(shù)據(jù)有10W。還不能達(dá)到自己的理想目標(biāo),于是便繼續(xù)優(yōu)化,后來發(fā)現(xiàn)php里面有一個(gè)pcntl擴(kuò)展可以實(shí)現(xiàn)多進(jìn)程編程。下面是多編程編程的示例:

 
  1. //PHP多進(jìn)程demo 
  2.  //fork10個(gè)進(jìn)程 
  3.  for ($i = 0; $i < 10; $i++) { 
  4.      $pid = pcntl_fork(); 
  5.      if ($pid == -1) { 
  6.          echo "Could not fork!\n"
  7.          exit(1); 
  8.      } 
  9.      if (!$pid) { 
  10.          echo "child process $i running\n"
  11.          //子進(jìn)程執(zhí)行完畢之后就退出,以免繼續(xù)fork出新的子進(jìn)程 
  12.          exit($i); 
  13.      } 
  14.  } 
  15.   
  16.  //等待子進(jìn)程執(zhí)行完畢,避免出現(xiàn)僵尸進(jìn)程 
  17.  while (pcntl_waitpid(0, $status) != -1) { 
  18.      $status = pcntl_wexitstatus($status); 
  19.      echo "Child $status completed\n"
  20.  } 

在Linux下查看系統(tǒng)的cpu信息

實(shí)現(xiàn)了多進(jìn)程編程之后,就想著多開幾條進(jìn)程不斷地抓取用戶的數(shù)據(jù),后來開了8調(diào)進(jìn)程跑了一個(gè)晚上后發(fā)現(xiàn)只能拿到20W的數(shù)據(jù),沒有多大的提升。于是查閱資料發(fā)現(xiàn),根據(jù)系統(tǒng)優(yōu)化的CPU性能調(diào)優(yōu),程序的最大進(jìn)程數(shù)不能隨便給的,要根據(jù)CPU的核數(shù)和來給,最大進(jìn)程數(shù)最好是cpu核數(shù)的2倍。因此需要查看cpu的信息來看看cpu的核數(shù)。在Linux下查看cpu的信息的命令:

cat /proc/cpuinfo

數(shù)據(jù)采集

右鍵點(diǎn)擊可放大
 

其中,model name表示cpu類型信息,cpu cores表示cpu核數(shù)。這里的核數(shù)是1,因?yàn)槭窃谔摂M機(jī)下運(yùn)行,分配到的cpu核數(shù)比較少,因此只能開2條進(jìn)程。最終的結(jié)果是,用了一個(gè)周末就抓取了110萬的用戶數(shù)據(jù)。
 

多進(jìn)程編程中Redis和MySQL連接問題

在多進(jìn)程條件下,程序運(yùn)行了一段時(shí)間后,發(fā)現(xiàn)數(shù)據(jù)不能插入到數(shù)據(jù)庫,會(huì)報(bào)mysql too many connections的錯(cuò)誤,redis也是如此。

下面這段代碼會(huì)執(zhí)行失?。?/p>


  1. <?php 
  2.      for ($i = 0; $i < 10; $i++) { 
  3.           $pid = pcntl_fork(); 
  4.           if ($pid == -1) { 
  5.                echo "Could not fork!\n"
  6.                exit(1); 
  7.           } 
  8.           if (!$pid) { 
  9.                $redis = PRedis::getInstance(); 
  10.                // do something      
  11.                exit; 
  12.           } 
  13.      } 

 

根本原因是在各個(gè)子進(jìn)程創(chuàng)建時(shí),就已經(jīng)繼承了父進(jìn)程一份完全一樣的拷貝。對(duì)象可以拷貝,但是已創(chuàng)建的連接不能被拷貝成多個(gè),由此產(chǎn)生的結(jié)果,就是各個(gè)進(jìn)程都使用同一個(gè)redis連接,各干各的事,最終產(chǎn)生莫名其妙的沖突。

解決方法:
     程序不能完全保證在fork進(jìn)程之前,父進(jìn)程不會(huì)創(chuàng)建redis連接實(shí)例。因此,要解決這個(gè)問題只能靠子進(jìn)程本身了。試想一下,如果在子進(jìn)程中獲取的實(shí)例只與當(dāng)前進(jìn)程相關(guān),那么這個(gè)問題就不存在了。于是解決方案就是稍微改造一下redis類實(shí)例化的靜態(tài)方式,與當(dāng)前進(jìn)程ID綁定起來。
改造后的代碼如下:
 
  1. <?php 
  2.      public static function getInstance() { 
  3.           static $instances = array(); 
  4.           $key = getmypid();//獲取當(dāng)前進(jìn)程ID 
  5.           if ($empty($instances[$key])) { 
  6.                $inctances[$key] = new self(); 
  7.           } 
  8.       
  9.           return $instances[$key]; 
  10.      } 

PHP統(tǒng)計(jì)腳本執(zhí)行時(shí)間

因?yàn)橄胫烂總€(gè)進(jìn)程花費(fèi)的時(shí)間是多少,因此寫個(gè)函數(shù)統(tǒng)計(jì)腳本執(zhí)行時(shí)間:

 
  1. function microtime_float() 
  2.      list($u_sec, $sec) = explode(' ', microtime()); 
  3.      return (floatval($u_sec) + floatval($sec)); 
  4.  
  5. $start_time = microtime_float(); 
  6.  
  7. //do something 
  8. usleep(100); 
  9.  
  10. $end_time = microtime_float(); 
  11. $total_time = $end_time - $start_time; 
  12.  
  13. $time_cost = sprintf("%.10f", $total_time); 
  14.  
  15. echo "program cost total " . $time_cost . "s\n"
 

若文中有不正確的地方,望各位指出以便改正。

代碼托管地址:https://github.com/hhqcontinue/zhihuSpider

責(zé)任編輯:李英杰 來源: 愛數(shù)據(jù)
相關(guān)推薦

2016-01-22 12:20:11

PHP數(shù)據(jù)爬取分析

2017-05-24 15:07:19

Python爬蟲爬取

2016-12-22 17:01:11

2015-09-28 11:01:41

PHP開發(fā)抓取知乎用戶

2021-01-12 15:24:39

數(shù)據(jù)泄露網(wǎng)絡(luò)安全因素認(rèn)證

2015-01-05 09:56:41

UDPLinux TCP

2021-01-20 23:40:27

數(shù)據(jù)泄露OpenWRT攻擊

2011-03-25 15:21:43

2024-01-24 09:00:00

2009-11-25 11:28:00

并發(fā)用戶數(shù)

2015-08-04 09:25:53

爬蟲PHP語言

2021-01-06 10:01:09

數(shù)據(jù)泄露漏洞信息安全

2015-09-14 15:36:27

PHP爬蟲語言

2022-12-01 12:14:09

2021-05-11 11:05:58

蘋果iOS隱私

2023-10-23 19:18:05

2015-10-19 18:18:44

2020-08-06 08:43:49

Python爬蟲數(shù)據(jù)

2017-06-16 21:00:02

Python爬蟲

2024-06-17 16:46:41

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)