自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

別小看Log日志,它難倒了技術總監(jiān)

開發(fā) 前端 開發(fā)工具
在最近的開會中,討論到一些異常的處理,以及日志的輸出。是的,這些看起來小的不能再小的事,發(fā)生了分歧。

 [[376041]]

圖片來自 Pexels

因為大家普遍只對 Log4j 了解,而對其余的卻基本未曾使用。我們的 Leader 也表示對 ELK 這類大規(guī)模日志由于好久不使用,也有點生疏了。所以今天總結了一下關于日志的介紹。

日志對于程序員是不可或缺的,在我們的開發(fā)過程中,寫完代碼需要調試的話,日志是必須的,日志可以幫助我們定位我們的問題,從而更好地幫助我們解決 Bug。

本期就給大家詳細了解一下我們經常使用到的四種日志類型,幫助大家提高開發(fā)效率。

1.Slf4j

Slf4j 的全稱是 Simple Loging Facade For Java,它僅僅是一個為 Java 程序提供日志輸出的統(tǒng)一接口,并不是一個具體的日志實現方案,就比如 JDBC 一樣,只是一種規(guī)則而已。

所以單獨的 Slf4j 是不能工作的,必須搭配其他具體的日志實現方案,比如:

  • Apache 的 org.apache.log4j.Logger。
  • JDK 自帶的 java.util.logging.Logger 等。

簡單語法

SLF4J 不及 Log4J 使用普遍,因為許多開發(fā)者熟悉 Log4J 而不知道 SLF4J,或不關注 SLF4J 而堅持使用 Log4J。

我們先看下 Log4J 示例:

  1. Logger.debug("Hello " + name); 

由于字符串拼接的問題,使用以上語句會先拼接字符串,再根據當前級別是否低于 Debug 決定是否輸出本條日志,即使不輸出日志,字符串拼接操作也會執(zhí)行。

所以許多公司強制使用下面的語句,這樣只有當前處于 Debug 級別時才會執(zhí)行字符串拼接:

  1. if (logger.isDebugEnabled()) { 
  2.   LOGGER.debug(“Hello ” + name); 

它避免了字符串拼接問題,但有點太繁瑣了是不是?相對地,SLF4J 提供下面這樣簡單的語法:

  1. LOGGER.debug("Hello {}"name); 

它的形式類似第一條示例,而又沒有字符串拼接問題,也不像第二條那樣繁瑣。

日志等級 Level

Slf4j 有四個級別的 log level 可供選擇,級別從上到下由低到高,優(yōu)先級高的將被打印出來:

  • Debug:簡單來說,對程序調試有利的信息都可以 debug 輸出。
  • info:對用戶有用的信息。
  • warn:可能會導致錯誤的信息。
  • error:顧名思義,發(fā)生錯誤的地方。

使用

因為是強制規(guī)約,所以直接使用 LoggerFactory 創(chuàng)建:

  1. import org.slf4j.Logger; 
  2. import org.slf4j.LoggerFactory; 
  3.  
  4. public class Test { 
  5.     private static final Logger logger = LoggerFactory.getLogger(Test.class); 
  6.     // …… 

配置方式

Spring Boot 對 Slf4j 支持的很好,內部已經集成了 Slf4j,一般我們在使用的時候,會對 Slf4j 做一下配置。

application.yml 文件是 Spring Boot 中唯一一個需要配置的文件,一開始創(chuàng)建工程的時候是 application.properties 文件,個人比較喜歡用 yml 文件,因為 yml 文件的層次感特別好,看起來更直觀。

但是 yml 文件對格式要求比較高,比如英文冒號后面必須要有個空格,否則項目估計無法啟動,而且也不報錯。用 properties 還是 yml 視個人習慣而定,都可以。

我們看一下 application.yml 文件中對日志的配置:

  1. logging: 
  2.   config: classpath:logback.xml 
  3.   level
  4.     com.bowen.dao: trace 

logging.config 是用來指定項目啟動的時候,讀取哪個配置文件,這里指定的是日志配置文件是 classpath:logback.xml 文件,關于日志的相關配置信息,都放在 logback.xml 文件中了。

logging.level 是用來指定具體的 mapper 中日志的輸出級別,上面的配置表示 com.bowen.dao 包下的所有 mapper 日志輸出級別為 trace,會將操作數據庫的 sql 打印出來。

開發(fā)時設置成 trace 方便定位問題,在生產環(huán)境上,將這個日志級別再設置成 error 級別即可。

常用的日志級別按照從高到低依次為:ERROR、WARN、INFO、DEBUG。

2.Log4j

Log4j 是 Apache 的一個開源項目,通過使用 Log4j,我們可以控制日志信息輸送的目的地是控制臺、文件、GUI 組件,甚至是套接口服務器、NT 的事件記錄器、UNIX Syslog 守護進程等。

我們也可以控制每一條日志的輸出格式;通過定義每條日志信息的級別,我們能夠更加細致地控制日志的生成過程。

組成架構

Log4j 由三個重要的組成構成:

  • Logger:控制要啟用或禁用哪些日志記錄語句,并對日志信息進行級別限制。
  • Appenders:指定了日志將打印到控制臺還是文件中。
  • Layout:控制日志信息的顯示格式。

Log4j 中將要輸出的 Log 信息定義了 5 種級別,依次為 DEBUG、INFO、WARN、ERROR 和 FATAL。

當輸出時,只有級別高過配置中規(guī)定的級別的信息才能真正的輸出,這樣就很方便的來配置不同情況下要輸出的內容,而不需要更改代碼。

日志等級 Level

Log4j 日志等級主要有以下幾種:

  • off:關閉日志,最高等級,任何日志都無法輸出。
  • fatal:災難性錯誤,在能夠輸出日志的所有等級中最高。
  • error:錯誤,一般用于異常信息。
  • warn:警告,一般用于不規(guī)范的引用等信息。
  • info:普通信息。
  • debug:調試信息,一般用于程序執(zhí)行過程。
  • trace:堆棧信息,一般不使用。
  • all:打開所有日志,最低等級,所有日志都可使用。

在 Logger 核心類中, 除了 off/all 以外, 其他每個日志等級都對應一組重載的方法,用于記錄不同等級的日志。當且僅當方法對應的日志等級大于等于設置的日志等級時,日志才會被記錄。

使用

使用 Log4j 只需要導入一個 jar 包:

  1. <dependency> 
  2.  <groupId>org.log4j</groupId> 
  3.    <artifactId>log4j</artifactId> 
  4.    <version>1.2.9</version> 
  5. </dependency>e 

配置方式

在 Resources Root 目錄下創(chuàng)建一個 log4j.properties 配置文件,一定要注意:文件的位置和文件名一個都不能錯,然后在 properties 文件中添加配置信息。

  1. log4j.rootLogger=debug,cons 
  2.  
  3. log4j.appender.cons=org.apache.log4j.ConsoleAppender  
  4. log4j.appender.cons.target=System.out   
  5. log4j.appender.cons.layout=org.apache.log4j.PatternLayout  
  6. log4j.appender.cons.layout.ConversionPattern=%m%n 

propertis 文件是最常用的配置方式。實際開發(fā)過程中,基本都是使用properties 文件。

pripertis 配置文件的配置方式為:

  1. # 配置日志等級, 指定生效的Appender名字, AppenderA是定義的Appender的名字 
  2. log4j.rootLogger=日志等級,AppenderA,AppenderB,...  
  3. ---------------- 定義一個appender------------------------ 
  4. # 定義一個appender, appender名字可以是任意的,  
  5. # 如果要使該appender生效, 須加入到上一行rootLogger中, 后面為對應的Appender類 
  6. log4j.appender.appender名字=org.apache.log4j.ConsoleAppender  
  7. log4j.appender.appender名字.target=System.out   
  8. # 定義Appender的布局方式 
  9. log4j.appender.appender名字.layout=org.apache.log4j.SimpleLayout 

3.Logback

簡單地說,Logback 是一個 Java 領域的日志框架。它被認為是 Log4J 的繼承人。Logback 是 Log4j 的升級,所以 Logback 自然比 Log4j 有很多優(yōu)秀的地方。

模塊組成

Logback 主要由三個模塊組成:

  • logback-core
  • logback-classic
  • logback-access

logback-core 是其它模塊的基礎設施,其它模塊基于它構建,顯然,logback-core 提供了一些關鍵的通用機制。

logback-classic 的地位和作用等同于 Log4J,它也被認為是 Log4J 的一個改進版,并且它實現了簡單日志門面 SLF4J。

logback-access 主要作為一個與 Servlet 容器交互的模塊,比如說 Tomcat 或者 Jetty,提供一些與 HTTP 訪問相關的功能。

 

三個模塊

Logback 組件

Logback 主要組件如下:

  • Logger:日志的記錄器;把他關聯(lián)到應用對應的 context 上;主要用于存放日志對象;可以自定義日志類型級別。
  • Appender:用于指定日志輸出的目的地;目的地可以是控制臺,文件,數據庫等。
  • Layout:負責把事件轉換成字符串;格式化的日志信息的輸出;在 logback 中 Layout 對象被封裝在 encoder 中。

Logback 優(yōu)點

Logback 主要優(yōu)點如下:

  • 同樣的代碼路徑,Logback 執(zhí)行更快。
  • 更充分的測試。
  • 原生實現了 SLF4J API(Log4J 還需要有一個中間轉換層)。
  • 內容更豐富的文檔。
  • 支持 XML 或者 Groovy 方式配置。
  • 配置文件自動熱加載。
  • 從 IO 錯誤中優(yōu)雅恢復。
  • 自動刪除日志歸檔。
  • 自動壓縮日志成為歸檔文件。
  • 支持 Prudent 模式,使多個 JVM 進程能記錄同一個日志文件。
  • 支持配置文件中加入條件判斷來適應不同的環(huán)境。
  • 更強大的過濾器。
  • 支持 SiftingAppender(可篩選 Appender)。
  • 異常棧信息帶有包信息。

標簽屬性

 

 


配置結構

  • Logback 主要標簽屬性如下:
  • configuration:配置的根節(jié)點。
  • scan:為 ture 時,若配置文件屬性改變會被掃描并重新加載,默認為 true。
  • scanPeriod:監(jiān)測配置文件是否有修改的時間間隔,若沒給出時間單位,默認單位為毫秒;默認時間為 1 分鐘;當 scan="true"時生效。
  • debug:為 true 時,將打出 logback 的內部日志信息,實時查看 logback 運行狀態(tài);默認值為 false。
  • contextName:上下文名稱,默認為“default”,使用此標簽可設置為其它名稱,用于區(qū)分不同應用程序的記錄;一旦設置不能修改。
  • appender:configuration 的子節(jié)點,負責寫日志的組件,有 name 和 class 兩個必要屬性。
  • name:addender 的名稱。
  • class:appender 的全限定名,就是對應的某個具體的 Appender 類名,比如 ConsoleAppender、FileAppender。
  • append:為 true 時,日志被追加到文件結尾,如果是 flase,清空現存的文件,默認值為 true。

配置方式

logback 框架會默認加載 classpath 下命名為 logback-spring 或 logback 的配置文件:

  1. <?xml version="1.0" encoding="utf-8"?> 
  2. <configuration> 
  3.     <property resource="logback.properties"/> 
  4.     <appender name="CONSOLE-LOG" class="ch.qos.logback.core.ConsoleAppender"
  5.         <layout class="ch.qos.logback.classic.PatternLayout"
  6.             <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> 
  7.         </layout> 
  8.     </appender> 
  9.     <!--獲取比info級別高(包括info級別)但除error級別的日志--> 
  10.     <appender name="INFO-LOG" class="ch.qos.logback.core.rolling.RollingFileAppender"
  11.         <filter class="ch.qos.logback.classic.filter.LevelFilter"
  12.             <level>ERROR</level
  13.             <onMatch>DENY</onMatch> 
  14.             <onMismatch>ACCEPT</onMismatch> 
  15.         </filter> 
  16.         <encoder> 
  17.             <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> 
  18.         </encoder> 
  19.  
  20.         <!--滾動策略--> 
  21.         <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"
  22.             <!--路徑--> 
  23.             <fileNamePattern>${LOG_INFO_HOME}//%d.log</fileNamePattern> 
  24.             <maxHistory>30</maxHistory> 
  25.         </rollingPolicy> 
  26.     </appender> 
  27.     <appender name="ERROR-LOG" class="ch.qos.logback.core.rolling.RollingFileAppender"
  28.         <filter class="ch.qos.logback.classic.filter.ThresholdFilter"
  29.             <level>ERROR</level
  30.         </filter> 
  31.         <encoder> 
  32.             <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> 
  33.         </encoder> 
  34.         <!--滾動策略--> 
  35.         <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"
  36.             <!--路徑--> 
  37.             <fileNamePattern>${LOG_ERROR_HOME}//%d.log</fileNamePattern> 
  38.             <maxHistory>30</maxHistory> 
  39.         </rollingPolicy> 
  40.     </appender> 
  41.  
  42.     <root level="info"
  43.         <appender-ref ref="CONSOLE-LOG" /> 
  44.         <appender-ref ref="INFO-LOG" /> 
  45.         <appender-ref ref="ERROR-LOG" /> 
  46.     </root> 
  47. </configuration>  

4.ELK

ELK 是軟件集合 Elasticsearch、Logstash、Kibana 的簡稱,由這三個軟件及其相關的組件可以打造大規(guī)模日志實時處理系統(tǒng)。

新增了一個 FileBeat,它是一個輕量級的日志收集處理工具(Agent),Filebeat 占用資源少,適合于在各個服務器上搜集日志后傳輸給 Logstash,官方也推薦此工具。

 

架構圖

Elasticsearch:是一個基于 Lucene 的、支持全文索引的分布式存儲和索引引擎,主要負責將日志索引并存儲起來,方便業(yè)務方檢索查詢。

Logstash:是一個日志收集、過濾、轉發(fā)的中間件,主要負責將各條業(yè)務線的各類日志統(tǒng)一收集、過濾后,轉發(fā)給 Elasticsearch 進行下一步處理。

Kibana:是一個可視化工具,主要負責查詢 Elasticsearch 的數據并以可視化的方式展現給業(yè)務方,比如各類餅圖、直方圖、區(qū)域圖等。

Filebeat:隸屬于 Beats,是一個輕量級的日志收集處理工具。

目前 Beats 包含四種工具:Packetbeat(搜集網絡流量數據)、Topbeat(搜集系統(tǒng)、進程和文件系統(tǒng)級別的 CPU 和內存使用情況等數據)、Filebeat(搜集文件數據)、Winlogbeat(搜集 Windows 事件日志數據)。

主要特點

一個完整的集中式日志系統(tǒng),需要包含以下幾個主要特點:

  • 收集:能夠采集多種來源的日志數據。
  • 傳輸:能夠穩(wěn)定的把日志數據傳輸到中央系統(tǒng)。
  • 存儲:如何存儲日志數據。
  • 分析:可以支持 UI 分析。
  • 警告:能夠提供錯誤報告,監(jiān)控機制。

ELK提供了一整套解決方案,并且都是開源軟件,之間互相配合使用,完美銜接,高效的滿足了很多場合的應用。目前主流的一種日志系統(tǒng)。

應用場景

在海量日志系統(tǒng)的運維中,以下幾個方面是必不可少的:

  • 分布式日志數據集中式查詢和管理。
  • 系統(tǒng)監(jiān)控,包含系統(tǒng)硬件和應用各個組件的監(jiān)控。
  • 故障排查。
  • 安全信息和事件管理。
  • 報表功能。

ELK 運行于分布式系統(tǒng)之上,通過搜集、過濾、傳輸、儲存,對海量系統(tǒng)和組件日志進行集中管理和準實時搜索、分析,使用搜索、監(jiān)控、事件消息和報表等簡單易用的功能。

幫助運維人員進行線上業(yè)務的準實時監(jiān)控、業(yè)務異常時及時定位原因、排除故障、程序研發(fā)時跟蹤分析 Bug、業(yè)務趨勢分析、安全與合規(guī)審計,深度挖掘日志的大數據價值。

同時 Elasticsearch 提供多種 API(REST JAVA PYTHON 等 API)供用戶擴展開發(fā),以滿足其不同需求。

配置方式

filebeat 的配置,打開 filebeat.yml,進行配置,如下:

  1. #輸入源,可以寫多個 
  2. filebeat.input: 
  3. - type: log 
  4.   enabled: true 
  5.   #輸入源文件地址 
  6.   path: 
  7.     - /data/logs/tomcat/*.log 
  8.   #多行正則匹配,匹配規(guī)則 例:2020-09-29,不是這樣的就與上一條信息合并 
  9.   multiline: 
  10.     pattern: '\s*\[' 
  11.     negate: true 
  12.     match: after 
  13.   #起個名字 
  14.   tags: ["tomcat"
  15.  
  16. #輸出目標,可以把logstash改成es 
  17. output.logstash: 
  18.   hosts: [172.29.12.35:5044] 

logstash 的配置,建一個以 .conf 為后綴的文件,或者打開 config 文件夾下的 .conf 文件,這里的配置文件是可以同時啟動多個的,而且還有一個功能強大的 filter 功能,可以過濾原始數據,如下:

  1. #輸入源(必須) 
  2. input { 
  3.  #控制臺鍵入 
  4.  stdin {} 
  5.  #文件讀取 
  6.  file { 
  7.   #類似賦予的名字 
  8.   type => "info" 
  9.   #文件路徑,可以用*代表所有 
  10.   path => ['/usr/local/logstash-7.9.1/config/data-my.log'
  11.   #第一次從頭開始讀,下一次繼續(xù)上一次的位置繼續(xù)讀 
  12.   start_position => "beginning" 
  13.  } 
  14.  file { 
  15.   type => "error" 
  16.   path => ['/usr/local/logstash-7.9.1/config/data-my2.log'
  17.   start_position => "beginning" 
  18.   codec=>multiline{ 
  19.    pattern => "\s*\[" 
  20.    negate => true 
  21.    what => "previous" 
  22.   } 
  23.  } 
  24.  #與filebates配合使用 
  25.  beats{ 
  26.   port => 5044 
  27.  } 
  28. #輸出目標(必須) 
  29. output { 
  30.  #判斷type是否相同 
  31.  if [type] == "error"
  32.   #如果是,就寫入此es中 
  33.   elasticsearch{ 
  34.    hosts => "172.29.12.35:9200" 
  35.    #kibana通過index的名字進行查詢,這里的YYYY是動態(tài)獲取日期 
  36.    index => "log-error-%{+YYYY.MM.dd}" 
  37.   } 
  38.  } 
  39.  if [type] == "info"
  40.   elasticsearch{ 
  41.    hosts => "172.29.12.35:9200" 
  42.    #kibana通過index的名字進行查詢 
  43.    index => "log-info-%{+YYYY.MM.dd}" 
  44.   } 
  45.  } 
  46.  #這里判斷的是filebates中賦予的tags是否是tomcat 
  47.  if "tomcat" in [tags]{ 
  48.   elasticsearch{ 
  49.    hosts => "172.29.12.35:9200" 
  50.    #kibana通過index的名字進行查詢 
  51.    index => "tomcat" 
  52.   } 
  53.  } 
  54.  #控制臺也會打印信息 
  55.  stdout { 
  56.   codec => rubydebug {} 
  57.  } 

作者:淺羽Eric

編輯:陶家龍

出處:轉載自公眾號淺羽的 IT 小屋(ID:QY18804079159)

 

責任編輯:武曉燕 來源: 淺羽的IT小屋
相關推薦

2020-11-05 08:07:46

tail命令技術

2021-01-07 08:23:02

日志

2021-07-29 06:28:13

網絡網工網絡中斷

2023-09-20 08:03:32

JavaScript編程語言

2016-12-19 13:18:19

思科

2022-08-28 16:20:44

模型數學

2024-06-11 08:17:00

2022-09-07 07:08:28

架構應用場景數據流

2009-04-05 10:26:47

2013-11-14 09:58:23

紅帽redhat

2025-04-27 04:02:00

機器學習模型網絡

2021-08-20 10:41:47

開發(fā)工具代碼

2020-02-25 17:03:29

技術研發(fā)指標

2017-06-13 08:55:29

Log日志MySQL

2017-06-13 15:10:02

大數據Log日志

2021-09-30 06:13:36

打印日志error

2017-11-20 10:58:32

2020-09-01 09:31:38

程序員技能開發(fā)者

2024-06-06 12:50:55

2009-05-26 16:43:41

虛擬化CIOIT
點贊
收藏

51CTO技術棧公眾號