自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

完了!線上又發(fā)生 OOM 了!

開發(fā) 前端
dump 出來的文件足有 4.8G,話不多說祭出 jvisualvm 進行分析,分析工具都被這個dump文件給搞掛了也報了個java.lang.OutOfMemoryError: Java heap space,加載成功之后就給出了導(dǎo)致OOM的線程。
本文轉(zhuǎn)載自微信公眾號「艾小仙」,作者艾小仙 。轉(zhuǎn)載本文請聯(lián)系艾小仙公眾號。

現(xiàn)象

線上某個服務(wù)有接口非常慢,通過監(jiān)控鏈路查看發(fā)現(xiàn),中間的 GAP 時間非常大,實際接口并沒有消耗很多時間,并且在那段時間里有很多這樣的請求。

圖片

原因分析

先從監(jiān)控鏈路分析了一波,發(fā)現(xiàn)請求是已經(jīng)打到服務(wù)上了,處理之前不知道為什么等了 3s,猜測是不是機器當時負載太大了,通過 QPS 監(jiān)控查看發(fā)現(xiàn),在接口慢的時候 CPU 突然增高,同時也頻繁的 GC ,并且時間很長,但是請求量并不大,并且這臺機器很快就因為 Heap滿了而被下掉了。

圖片

去看了下日志,果然有 OOM 的報錯,但是從報錯信息上并沒辦法找到 Root Cause。

system error: org.springframework.web.util.NestedServletException: Handler dispatch failed; nested exception is java.lang.OutOfMemoryError: Java heap space   at org.springframework.web.servlet.DispatcherServlet.doDispatch(DispatcherServlet.java:1055)   at org.springframework.web.servlet.DispatcherServlet.doService(DispatcherServlet.java:943)   at org.springframework.web.servlet.FrameworkServlet.processRequest(FrameworkServlet.java:1006)   at org.springframework.web.servlet.FrameworkServlet.doPost(FrameworkServlet.java:909)   at javax.servlet.http.HttpServlet.service(HttpServlet.java:681)

另外開發(fā)同學(xué)提供了線索,在發(fā)生問題的時候在跑一個大批量的一次性 JOB,懷疑是不是這個 JOB 導(dǎo)致的,馬上把 JOB 代碼拉下來分析了下,JOB 做了分批處理,代碼也沒有發(fā)現(xiàn)什么問題。

雖然我們系統(tǒng)加了下面的 JVM 參數(shù),但是由于容器部署的原因,這些文件在 pod 被 kill 掉之后沒辦法保留下來。

-XX:+HeapDumpOnOutOfMemoryError -XX:ErrorFile=/logs/oom_dump/xxx.log -XX:HeapDumpPath=/logs/oom_dump/xxx.hprof

這個現(xiàn)象是最近出現(xiàn)的,猜測是最近提交的代碼導(dǎo)致的,于是去分析了最近提交的所有代碼,很不幸的都沒有發(fā)現(xiàn)問題。。。

在分析代碼的過程中,該服務(wù)又無規(guī)律的出現(xiàn)了兩次 OOM,只好聯(lián)系運維同學(xué)優(yōu)先給這個服務(wù)加了 EFS (Amazon 文件系統(tǒng))等待下次出現(xiàn)能抓住這個問題。

剛掛載完 EFS,很幸運的就碰到了系統(tǒng)出現(xiàn) OOM 的問題。

dump 出來的文件足有 4.8G,話不多說祭出 jvisualvm 進行分析,分析工具都被這個dump文件給搞掛了也報了個java.lang.OutOfMemoryError: Java heap space,加載成功之后就給出了導(dǎo)致OOM的線程。

圖片

找到了具體報錯的代碼行號,翻一下業(yè)務(wù)代碼,竟然是一個查詢數(shù)據(jù)庫的count操作,這能有啥問題?

仔細看了下里面有個foreach?遍歷userId?的操作,難道這個userId的數(shù)組非常大?

圖片

找到class按照大小排序,占用最多的是一個 byte 數(shù)組,有 1.07G,char 數(shù)組也有1.03G,byte 數(shù)組都是數(shù)字,直接查看 char 數(shù)組吧,點進去查看具體內(nèi)容,果然是那條count語句,一條 SQL 1.03G 難以想象。。。

圖片

圖片

這個userId?的數(shù)據(jù)完全是外部傳過來的,并沒有做什么操作,從監(jiān)控上看,這個入?yún)⒂?64M,馬上聯(lián)系對應(yīng)系統(tǒng)排查為啥會傳這么多用戶過來查詢,經(jīng)過一番排查確認他們有個bug,會把所有用戶都發(fā)過來查詢。。。到此問題排查清楚。

解決方案

對方系統(tǒng)控制傳入userId?的數(shù)量,我們自己的系統(tǒng)也對userId做一個限制,問題排查過程比較困難,修改方案總是那么的簡單。

別急,還有一個

看到這個問題,就想起之前我們還有一個同樣類似的問題導(dǎo)致的故障。

也是突然收到很多告警,還有機器 down 機的告警,打開 CAT 監(jiān)控看的時候,發(fā)現(xiàn)內(nèi)存已經(jīng)被打滿了。

圖片

操作和上面的是一樣的,拿到 dump 文件之后進行分析,不過這是一個漫長的過程,因為 down了好幾臺機器,最大的文件有12GB。

通過 MAT 分析 dump 文件發(fā)現(xiàn)有幾個巨大的 String(熟悉的味道,熟悉的配方)。

圖片

接下來就是早具體的代碼位置了,去查看了下日志,這臺機器已經(jīng)觸發(fā)自我保護機制了,把代碼的具體位置帶了出來。

經(jīng)過分析代碼發(fā)現(xiàn),代碼中的邏輯是查詢 TIDB(是有同步延遲的),發(fā)現(xiàn)在極端情況下會出現(xiàn)將用戶表全部數(shù)據(jù)加載到內(nèi)存中的現(xiàn)象。

圖片

于是找 DBA 拉取了對應(yīng)時間段 TIDB 的慢查詢,果然命中了。

圖片

總結(jié)

面對 OOM 問題如果代碼不是有明顯的問題,下面幾個JVM參數(shù)相當有用,尤其是在容器化之后。

-XX:+HeapDumpOnOutOfMemoryError -XX:ErrorFile=/logs/oom_dump/xxx.log -XX:HeapDumpPath=/logs/oom_dump/xxx.hprof

另外提一個參數(shù)也很有用,正常來說如果程序出現(xiàn) OOM 之后,就是有代碼存在內(nèi)存泄漏的風(fēng)險,這個時候即使能對外提供服務(wù),其實也是有風(fēng)險的,可能造成更多的請求有問題,所以該參數(shù)非常有必要,可以讓 K8S 快速的再拉起來一個實例。

-XX:+ExitOnOutOfMemoryError

另外,針對這兩個非常類似的問題,對于 SQL 語句,如果監(jiān)測到?jīng)]有where?條件的全表查詢應(yīng)該默認增加一個合適的limit作為限制,防止這種問題拖垮整個系統(tǒng)。

責(zé)任編輯:武曉燕 來源: 艾小仙
相關(guān)推薦

2022-03-16 07:58:02

OOMdubbo內(nèi)存

2023-10-30 22:23:12

Cacherkube版本

2022-10-10 08:05:34

線程池OOM問題

2019-12-10 09:42:57

OOM運維內(nèi)存

2021-02-02 09:13:11

索引SQL數(shù)據(jù)庫

2020-09-29 12:15:13

生死鎖MySQL

2024-10-10 15:32:51

2023-07-18 19:11:21

配置信令系統(tǒng)

2021-10-18 22:29:54

OOMJava Out Of Memo

2021-09-09 18:12:22

內(nèi)存分段式網(wǎng)絡(luò)

2017-08-21 23:50:45

線上內(nèi)存OOM

2024-08-02 10:55:30

2021-11-05 11:10:13

MyBatisSQL查詢

2023-02-16 08:55:13

2017-12-28 10:44:08

JavaScript瀏覽器網(wǎng)頁

2014-07-23 10:19:02

小米4

2022-10-17 10:13:58

谷歌云游戲

2020-03-31 16:02:23

戴爾

2022-12-07 07:35:20

B站裁員隱情

2020-07-08 09:50:37

Java內(nèi)存快速定位
點贊
收藏

51CTO技術(shù)棧公眾號