自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Tomcat是怎樣處理搜索引擎爬蟲請求的?

開發(fā) 開發(fā)工具
每個(gè)置身于互聯(lián)網(wǎng)中的站點(diǎn),都需要搜索引擎的收錄,以及在適時(shí)在結(jié)果中的展現(xiàn),從而將信息提供給用戶、讀者。而搜索引擎如何才能收錄我們的站點(diǎn)呢?

每個(gè)置身于互聯(lián)網(wǎng)中的站點(diǎn),都需要搜索引擎的收錄,以及在適時(shí)在結(jié)果中的展現(xiàn),從而將信息提供給用戶、讀者。而搜索引擎如何才能收錄我們的站點(diǎn)呢?

這就涉及到一個(gè)「搜索引擎的爬蟲」爬取站點(diǎn)內(nèi)容的過程。只有被搜索引擎爬過并收錄的內(nèi)容才有機(jī)會在特定query***之后在結(jié)果中展現(xiàn)。

[[233840]]

這些搜索引擎內(nèi)容的工具,又被稱為爬蟲、Sprider,Web crawler 等等。我們一方面歡迎其訪問站點(diǎn)以便收錄內(nèi)容,一方面又因其對于正常服務(wù)的影響頭疼。畢竟 Spider 也是要占用服務(wù)器資源的, Spider 太多太頻繁的資源占用,正常用戶請求處理就會受到影響。所以一些站點(diǎn)干脆直接為搜索引擎提供了單獨(dú)的服務(wù)供其訪問,其他正常的用戶請求走另外的服務(wù)器。

說到這里需要提一下,對于是否是 Spider 的請求識別,是通過HTTP 請求頭中的User-Agent 字段來判斷的,每個(gè)搜索引擎有自己的獨(dú)立標(biāo)識。而且通過這些內(nèi)容,管理員也可以在訪問日志中了解搜索引擎爬過哪些內(nèi)容。

此外,在對搜索引擎的「爬取聲明文件」robots.txt中,也會有類似的User-agent 描述。比如下面是taobao 的robots.txt描述

  1. User-agent:  Baiduspider 
  2. Allow:  /article 
  3. Allow:  /oshtml 
  4. Disallow:  /product/ 
  5. Disallow:  / 
  6.  
  7. User-Agent:  Googlebot 
  8. Allow:  /article 
  9. Allow:  /oshtml 
  10. Allow:  /product 
  11. Allow:  /spu 
  12. Allow:  /dianpu 
  13. Allow:  /oversea 
  14. Allow:  /list 
  15. Disallow:  / 
  16.  
  17. User-agent:  Bingbot 
  18. Allow:  /article 
  19. Allow:  /oshtml 
  20. Allow:  /product 
  21. Allow:  /spu 
  22. Allow:  /dianpu 
  23. Allow:  /oversea 
  24. Allow:  /list 
  25. Disallow:  / 
  26.  
  27. User-Agent:  360Spider 
  28. Allow:  /article 
  29. Allow:  /oshtml 
  30. Disallow:  / 
  31.  
  32. User-Agent:  Yisouspider 
  33. Allow:  /article 
  34. Allow:  /oshtml 
  35. Disallow:  / 
  36.  
  37. User-Agent:  Sogouspider 
  38. Allow:  /article 
  39. Allow:  /oshtml 
  40. Allow:  /product 
  41. Disallow:  / 
  42.  
  43. User-Agent:  Yahoo!  Slurp 
  44. Allow:  /product 
  45. Allow:  /spu 
  46. Allow:  /dianpu 
  47. Allow:  /oversea 
  48. Allow:  /list 
  49. Disallow:  / 

我們再來看 Tomcat對于搜索引擎的請求做了什么特殊處理呢?

對于請求涉及到 Session,我們知道通過 Session,我們在服務(wù)端得以識別一個(gè)具體的用戶。那 Spider 的大量請求到達(dá)后,如果訪問頻繁同時(shí)請求量大時(shí),就需要?jiǎng)?chuàng)建巨大量的 Session,需要占用和消耗很多內(nèi)存,這無形中占用了正常用戶處理的資源。

為此, Tomcat 提供了一個(gè) 「Valve」,用于對 Spider 的請求做一些處理。

首先識別 Spider 請求,對于 Spider 請求,使其使用相同的 SessionId繼續(xù)后面的請求流程,從而避免創(chuàng)建大量的 Session 數(shù)據(jù)。

這里需要注意,即使Spider顯式的傳了一個(gè) sessionId過來,也會棄用,而是根據(jù)client Ip 來進(jìn)行判斷,即對于 相同的 Spider 只提供一個(gè)Session。

我們來看代碼:

  1. // If the incoming request has a valid session ID, no action is required 
  2. if (request.getSession(false) == null) { 
  3.  
  4.     // Is this a crawler - check the UA headers 
  5.     Enumeration<String> uaHeaders = request.getHeaders("user-agent"); 
  6.     String uaHeader = null
  7.     if (uaHeaders.hasMoreElements()) { 
  8.         uaHeader = uaHeaders.nextElement(); 
  9.     } 
  10.  
  11.     // If more than one UA header - assume not a bot 
  12.     if (uaHeader != null && !uaHeaders.hasMoreElements()) { 
  13.         if (uaPattern.matcher(uaHeader).matches()) { 
  14.             isBot = true
  15.             if (log.isDebugEnabled()) { 
  16.                 log.debug(request.hashCode() + 
  17.                         ": Bot found. UserAgent=" + uaHeader); 
  18.             } 
  19.         } 
  20.     } 
  21.  
  22.     // If this is a bot, is the session ID known? 
  23.     if (isBot) { 
  24.         clientIp = request.getRemoteAddr(); 
  25.         sessionId = clientIpSessionId.get(clientIp); 
  26.         if (sessionId != null) { 
  27.             request.setRequestedSessionId(sessionId); // 重用session 
  28.         } 
  29.     } 
  30.  
  31. getNext().invoke(request, response); 
  32.  
  33. if (isBot) { 
  34.     if (sessionId == null) { 
  35.         // Has bot just created a session, if so make a note of it 
  36.         HttpSession s = request.getSession(false); 
  37.         if (s != null) { 
  38.             clientIpSessionId.put(clientIp, s.getId()); //針對Spider生成session 
  39.             sessionIdClientIp.put(s.getId(), clientIp); 
  40.             // #valueUnbound() will be called on session expiration 
  41.             s.setAttribute(this.getClass().getName(), this); 
  42.             s.setMaxInactiveInterval(sessionInactiveInterval); 
  43.  
  44.             if (log.isDebugEnabled()) { 
  45.                 log.debug(request.hashCode() + 
  46.                         ": New bot session. SessionID=" + s.getId()); 
  47.             } 
  48.         } 
  49.     } else { 
  50.         if (log.isDebugEnabled()) { 
  51.             log.debug(request.hashCode() + 
  52.                     ": Bot session accessed. SessionID=" + sessionId); 
  53.         } 
  54.     } 

判斷Spider 是通過正則

  1. private String crawlerUserAgents = 
  2.     ".*[bB]ot.*|.*Yahoo! Slurp.*|.*Feedfetcher-Google.*"
  3. // 初始化Valve的時(shí)候進(jìn)行compile 
  4. uaPattern = Pattern.compile(crawlerUserAgents); 

這樣當(dāng) Spider 到達(dá)的時(shí)候就能通過 User-agent識別出來并進(jìn)行特別處理從而減小受其影響。

這個(gè) Valve的名字是:「CrawlerSessionManagerValve」,好名字一眼就能看出來作用。

其他還有問題么?我們看看,通過ClientIp來判斷進(jìn)行Session共用。

最近 Tomcat 做了個(gè)bug fix,原因是這種通過ClientIp的判斷方式,當(dāng) Valve 配置在Engine下層,給多個(gè)Host 共用時(shí),只能有一個(gè)Host生效。 fix之后,對于請求除ClientIp外,還有Host和 Context的限制,這些元素共同組成了 client標(biāo)識,就能更大程度上共用Session。

修改內(nèi)容如下:

總結(jié)下, 該Valve 通過標(biāo)識識別出 Spider 請求后,給其分配一個(gè)固定的Session,從而避免大量的Session創(chuàng)建導(dǎo)致我資源占用。

默認(rèn)該Valve未開啟,需要在 server.xml中 增加配置開啟。另外我們看上面提供的 正則 pattern,和taobao 的robots.txt對比下,你會出現(xiàn)并沒有包含國內(nèi)的這些搜索引擎的處理,這個(gè)時(shí)候怎么辦呢?

在配置的時(shí)候傳一下進(jìn)來就OK啦,這是個(gè)public 的屬性

  1. public void setCrawlerUserAgents(String crawlerUserAgents) { 
  2.     this.crawlerUserAgents = crawlerUserAgents; 
  3.     if (crawlerUserAgents == null || crawlerUserAgents.length() == 0) { 
  4.         uaPattern = null
  5.     } else { 
  6.         uaPattern = Pattern.compile(crawlerUserAgents); 
  7.     } 

 【本文為51CTO專欄作者“侯樹成”的原創(chuàng)稿件,轉(zhuǎn)載請通過作者微信公眾號『Tomcat那些事兒』獲取授權(quán)】

戳這里,看該作者更多好文

責(zé)任編輯:趙寧寧 來源: 51CTO專欄
相關(guān)推薦

2019-09-26 09:34:51

網(wǎng)絡(luò)爬蟲搜索引擎大數(shù)據(jù)

2014-08-05 15:10:05

Larbin搜索引擎

2011-06-20 18:23:06

SEO

2010-08-02 16:08:39

ibmdwJava搜索引擎

2016-08-18 00:54:59

Python圖片處理搜索引擎

2024-12-20 14:34:40

2011-05-17 17:40:59

搜索引擎信任度

2009-02-19 09:41:36

搜索引擎搜狐百度

2009-09-22 16:23:52

搜索引擎

2011-05-10 12:55:13

反向鏈接

2017-08-07 08:15:31

搜索引擎倒排

2011-05-10 12:32:56

搜索引擎反向鏈接

2020-03-20 10:14:49

搜索引擎倒排索引

2010-06-13 16:27:28

搜索引擎

2016-12-26 13:41:19

大數(shù)據(jù)搜索引擎工作原理

2022-10-08 09:13:18

搜索引擎?站

2012-09-07 13:22:21

搜索搜狗

2010-04-20 11:43:46

2015-08-31 10:41:58

搜索引擎Google云應(yīng)用

2020-02-24 08:52:08

開源索引YaCy
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號