原創:扣釘日記(微信公眾號ID:codelogs),歡迎分享,轉載請保留出處。
最近,我們系統設定了GC耗時的監控,但設定上之後,系統會偶爾出現GC耗時大於1s的報警,排查花了一些力氣,故在這裡分享下。
我們系統分多個環境部署,出現GC長耗時的是俄羅斯環境,其它環境沒有這個問題,這裡比較奇怪的是,俄羅斯環境是流量最低的一個環境,而且大多數GC長耗時發生在深夜。
發現報警後,我立馬檢視了GC紀錄檔,如下:
紀錄檔中出現了to-space exhausted,經過一番瞭解,出現這個是由於g1在做gc時,都是先複製存活物件,再回收原region,當沒有空閒空間複製存活物件時,就會出現to-space exhausted,而這種GC場景代價是非常大的。
同時,在這個gc發生之前,還發現了一些如下的紀錄檔。
這裡可以看到,系統在分配約30M+的大物件,難道是有程式碼頻繁分配大物件導致的gc問題。
jdk在分配大物件時,會呼叫G1CollectedHeap::humongous_obj_allocate
方法,而使用async-profiler可以很容易知道哪裡呼叫了這個方法,如下:
# 開啟收集
./profiler.sh start --all-user -e G1CollectedHeap::humongous_obj_allocate -f ./humongous.jfr jps
# 停止收集
./profiler.sh stop -f ./humongous.jfr jps
將humongous.jfr檔案用jmc開啟,如下:
根據呼叫棧我發現,這是我們的一個定時任務,它會定時呼叫一個介面獲取設定資訊並快取它,而這個介面返回的資料量達14M之多。
難道是這個介面導致的gc問題?但這個定時任務呼叫也不頻繁呀,5分鐘才呼叫一次,不至於讓gc忙不過來吧!
另一個疑問是,這個定時任務在其它環境也會執行,而且其它環境的業務流量大得多,為什麼其它環境沒有問題?
至此,我也不確定是這個定時任務導致的問題,還是系統自身特點導致偶爾的高gc耗時。
由於我們有固定的上線日,於是我打算先優化產生大物件的程式碼,然後在上線前的期間試著優化一下jvm gc引數。
我們使用的是httpclient呼叫介面,呼叫介面時,程式碼會先將介面返回資料讀取成String,然後再使用jackson把String轉成map物件,簡化如下:
rsp = httpClient.execute(request);
String result = IOUtils.toString(rsp.getEntity().getContent());
Map resultMap = JSONUtil.getMapper().readValue(result, Map.class);
要優化它也很簡單,使用jackson的readValue有一個傳入InputStream的過載方法,用它來讀取json資料,而不是將其載入成一個大的String物件再讀,如下:
rsp = httpClient.execute(request);
InputStream is = rsp.getEntity().getContent();
Map resultMap = JSONUtil.getMapper().readValue(is, Map.class);
注:這裡面map從邏輯上來說是一個大物件,但對jvm來說,它只是很多個小物件然後用指標連線起來而已,大物件一般由大陣列造成,大String之所以是大物件,是因為它裡面有一個很大的char[]陣列。
優化完程式碼後,我開始研究優化jvm gc引數了,我們使用的是jdk8,垃圾收集器是g1,為了理解g1的調優引數,又簡單學習了下g1的關鍵概念。
young gc
與mixed gc
,young gc用於收集年輕代region,mixed gc會收集年輕代與老年代region。mixed gc
回收之前,需要先經歷一個並行週期(Concurrent Cycles),用來標記各region的物件存活情況,讓mixed gc
可以判斷出需要回收哪些region。在g1中,young gc幾乎沒有什麼可調引數,而mixed gc有一些,常見如下:
引數 | 作用 |
---|---|
-XX:InitiatingHeapOccupancyPercent | 開始mixed gc並行週期的堆佔用閾值,當大於此比例,啟動並行週期,預設45% |
-XX:ConcGCThreads | 在並行標記時,使用多少個並行執行緒。 |
-XX:G1HeapRegionSize | 每個region大小,當分配物件尺寸大於region一半時,才認為這是一個大物件。 |
-XX:G1MixedGCLiveThresholdPercent | region存活比例,預設85%,當並行標記後發現region中存活物件比例小於這個值,mixed gc才會回收這個region,畢竟一個region如果都是存活的物件,那還有什麼回收的必要呢。 |
-XX:G1HeapWastePercent | 允許浪費的堆比例,預設5%,當可回收的記憶體比例大於此值時,mixed gc才會去執行回收,畢竟沒什麼可回收的物件時,還有什麼回收的必要呢。 |
-XX:G1MixedGCCountTarget | mixed gc執行的次數,一旦並行標記週期確認了回收哪些region後,mixed gc就進行回收,但mixed gc會分少量多次來回收這些region,預設8次。 |
-XX:G1OldCSetRegionThresholdPercent | 每次mixed gc回收old region的比例,預設10%,如果G1MixedGCCountTarget是8的話,mixed gc整體能回收80%。 |
-XX:G1ReservePercent | 堆保留空間比例,預設10%,這部分空間g1會保留下來,用來在gc時複製存活物件。 |
出現to-space exhausted會不會是mixed gc太慢了呢?於是我調整了如下引數:
-XX:InitiatingHeapOccupancyPercent
從預設值45%調整到35%,-XX:ConcGCThreads
從1調整為3。-XX:G1MixedGCLiveThresholdPercent
與-XX:G1HeapWastePercent
確定回收哪些region,有多少比例垃圾才執行回收,我覺得它們的值本來就蠻激進,就沒有調整。-XX:G1MixedGCCountTarget
與-XX:G1OldCSetRegionThresholdPercent
控制mixed gc執行多少次,每次回收多少region,我將-XX:G1OldCSetRegionThresholdPercent
從10%調整到了15%,讓它一次多回收些old region。-XX:G1ReservePercent
從10%調整到20%。-XX:G1HeapRegionSize
增加到16m。於是我按照上面調整了jvm引數,可是第二天我發現還是有GC長耗時,次數也沒有減少,看來問題根因和我調整的引數沒有關係。
就這樣,到了上線日,於是我上線了前面優化大物件的程式碼,一天後,我發現偶爾的GC長耗時竟然沒有了!
問題就這樣解決了!!!
然而我心裡還是有一個大大的問號,其它環境同樣有這個定時任務,一樣的執行頻率,jvm設定也全是一樣的,為啥其它環境沒有問題呢?其它環境業務流量還大一些!
為此,我搜尋了大量關於g1大物件的文章,我發現大物件的分配與回收過程有點特殊,如下:
我忽然想到,莫非是俄羅斯環境流量太低,觸發不了young gc,且並行週期又因為什麼原因沒執行,但定時任務又慢慢生成大物件將old region佔滿,導致了to-space exhausted?
於是,我打算寫段程式碼試驗一下,慢慢的只生成大物件,看g1會不會回收,如下:
這個一個命令列互動程式,使用如下jvm引數啟動它:
# 1600m的堆,16m的region size
# rlwrap作用是使得這個命令列程式更好用
rlwrap java -server -Xms1600m -Xmx1600m -Xss1m -XX:MetaspaceSize=512m -XX:MaxMetaspaceSize=1g -Xloggc:/home/work/logs/applogs/gc-%t.log -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/home/work/logs/applogs/ -XX:+PrintClassHistogram -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:+PrintHeapAtGC -XX:+PrintGCDateStamps -XX:+PrintGCApplicationStoppedTime -XX:+PrintAdaptiveSizePolicy -XX:+UseG1GC -XX:G1LogLevel=finest -XX:G1HeapRegionSize=16m -XX:MaxGCPauseMillis=200 -jar command-cli.jar
使用了1600M的堆,16M的region size,所以總共有100個region,jdk版本是1.8.0_222
。
通過在這個互動程式中輸入gc 9437184 20 0
,可以生成20個9M的大物件。
當我輸入3次gc 9437184 20 0
後,如下:
我從gc紀錄檔中發現了一次由initial marking觸發的young gc,說明g1啟動了並行週期,之所以發生young gc,是因為initial marking是藉助ygc執行的。
緊接著,我發現了並行標記、重新標記與清理階段的紀錄檔。
然後我在jstat中發現老年代使用率降低了,因為young gc會回收大物件,所以老年代使用率降低也是正常的。
當我又執行了2次gc 9437184 20 0
後,使得堆佔用率再次大於45%,我發現gc紀錄檔中出現如下內容:
看字面意思是,由於mixed gc正在執行,沒有再次啟動並行週期。
可是,我在這種狀態下等了好久,也沒有看到mixed gc的紀錄檔出來,不是說mixed gc正在執行嚒,它一定是有什麼問題!
於是,我又執行了好幾次gc 9437184 20 0
,我在gc紀錄檔中發現了to-space exhausted!
Humongous Reclaimed: 98
可以發現,這次young gc,回收了98個大物件分割區,而我們總共只有100個分割區,說明在inital marking之後建立的大物件,確實一直都沒有回收。注:新增
-XX:G1LogLevel=finest
引數,才能輸出Humongous Reclaimed這一項。
但是,大物件分割區佔了98個,堆佔用率肯定超過了45%,為何一直沒有再次啟動並行週期呢?
感覺這可能是jdk的bug,於是我分別下了最新的jdk8u與jdk11u驗證,發現問題在最新的jdk8u中依然存在,而jdk11u中則不存在,這應該就是JDK的Bug!
於是我通過二分搜尋法多次編譯了不同版本的JDK,最終確定問題fix在jdk9_b93與jdk9_b94之間。
並在jdk的bug庫中,搜尋到了相同描述的bug反饋,如下:
https://bugs.openjdk.org/browse/JDK-8140689
Bug改動程式碼如下:
大致瞄了下程式碼,可能理解得不完全正確,改動邏輯如下:
mixed gc
或young gc
,類似於Concurrent Cycles
-> mixed gc|young gc
-> Concurrent Cycles
-> mixed gc|young gc
。Concurrent Cycles
也不會被觸發,因此最終大物件將堆佔滿觸發了to-space exhausted。Concurrent Cycles
-> Concurrent Cycles
。所以在使用JDK8時,像那種系統流量很小,新生代較大,又有定時任務不斷產生大物件的場景,堆幾乎必然會被慢慢佔滿,要解決這個問題,可參考如下處理:
-XX:G1MaxNewSizePercent
讓新生代小一點,讓young gc能執行得更頻繁些,同時老年代更大,能緩衝更多大物件分配。考慮到我們負責的其它系統中,時不時就有一波大響應體的請求,也沒法快速修改程式碼,於是我統一將-XX:G1MaxNewSizePercent
減小到30%,經過觀察,修改後GC頻率有所增加,但暫停時間有所下降,這是符合期望的。
當我在jdk的bug庫中搜尋問題時,發現不少和G1大物件相關的優化,早期JDK(如JDK8)的G1實現可能在大物件回收上不太完善,所以寫程式碼時要注意儘量少建立大物件,以迴避這些隱性問題。
注:這之後又遇到了
Update RS (ms)
耗時高,竟也和大物件有關,新增-XX:-ReduceInitialCardMarks
後解決,看來大物件是萬惡之源啊