一次JVM GC長暫停的排查過程

2023-01-12 21:09:48

作者:京東科技 徐傳樂

背景

在高並行下,Java程式的GC問題屬於很典型的一類問題,帶來的影響往往會被進一步放大。不管是「GC頻率過快」還是「GC耗時太長」,由於GC期間都存在Stop The World問題,因此很容易導致服務超時,引發效能問題。

事情最初是線上某應用垃圾收集出現Full GC異常的現象,應用中個別範例Full GC時間特別長,持續時間約為15~30秒,平均每2周左右觸發一次;

JVM引數設定「-Xms2048M –Xmx2048M –Xmn1024M –XX:MaxPermSize=512M」

排查過程

Ø 分析GC 紀錄檔

GC 紀錄檔它記錄了每一次的 GC 的執行時間和執行結果,通過分析 GC 紀錄檔可以調優堆設定和 GC 設定,或者改進應用程式的物件分配模式。

這裡Full GC的reason是Ergonomics,是因為開啟了UseAdaptiveSizePolicy,jvm自己進行自適應調整引發的Full GC。

這份紀錄檔主要體現GC前後的變化,目前為止看不出個所以然來。

開啟GC紀錄檔,需要新增如下 JVM 啟動引數:

-XX:+PrintGCDetails -XX:+PrintGCDateStamps -Xloggc:/export/log/risk_pillar/gc.log

常見的 Young GC、Full GC 紀錄檔含義如下:

Ø 進一步檢視伺服器效能指標

獲取到了GC耗時的時間後,通過監控平臺獲取到各個監控項,開始排查這個時點有異常的指標,最終分析發現,在5.06分左右(GC的時點),CPU佔用顯著提升,而SWAP出現了釋放資源、memory資源增長出現拐點的情況(詳見下圖紅色框,橙色框中的變化是因修改設定導致,後面會介紹,暫且可忽略)

JVM用到了swap?是因為GC導致的CPU突然飆升,並且釋放了swap交換區這部分記憶體到memory?

為了驗證JVM是否用到swap,我們通過檢查proc下的程序記憶體資源佔用情況

| for i in $( cd /proc;ls |grep "^[0-9]"|awk ' $0 >100') ;do awk '/Swap:/{a=a+$2}END{print '"$i"',a/1024"M"}' /proc/$i/smaps 2>/dev/null ; done | sort -k2nr | head -10 # head -10 表示 取出 前10個記憶體佔用高的程序 # 取出的第一列為程序的id 第二列程序佔用swap大小 | | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ |

看到確實有用到305MB的swap

這裡簡單介紹下什麼是swap?

swap指的是一個交換分割區或檔案,主要是在記憶體使用存在壓力時,觸發記憶體回收,這時可能會將部分記憶體的資料交換到swap空間,以便讓系統不會因為記憶體不夠用而導致oom或者更致命的情況出現。

當某程序向OS請求記憶體發現不足時,OS會把記憶體中暫時不用的資料交換出去,放在swap分割區中,這個過程稱為swap out。

當某程序又需要這些資料且OS發現還有空閒實體記憶體時,又會把swap分割區中的資料交換回實體記憶體中,這個過程稱為swap in。

為了驗證GC耗時與swap操作有必然關係,我抽查了十幾臺機器,重點關注耗時長的GC紀錄檔,通過時間點確認到GC耗時的時間點與swap操作的時間點確實是一致的。

進一步檢視虛擬機器器各範例 swappiness 引數,一個普遍現象是,凡是發生較長Full GC的範例都設定了引數 vm.swappiness = 30(值越大表示越傾向於使用swap);而GC時間相對正常的範例設定引數 vm.swappiness = 0(最大限度地降低使用swap)。

swappiness 可以設定為 0 到 100 之間的值,它是Linux的一個核心引數,控制系統在進 行swap時,記憶體使用的相對權重。

Ø swappiness=0: 表示最大限度使用實體記憶體,然後才是 swap空間

Ø swappiness=100: 表示積極的使用swap分割區,並且把記憶體上的資料及時的交換到swap空間裡面

對應的實體記憶體使用率和swap使用情況如下

至此,矛頭似乎都指向了swap。

Ø 問題分析

當記憶體使用率達到水位線(vm.swappiness)時,linux會把一部分暫時不使用的記憶體資料放到磁碟swap去,以便騰出更多可用記憶體空間;

當需要使用位於swap區的資料時,再將其換回記憶體中,當JVM進行GC時,需要對相應堆分割區的已用記憶體進行遍歷;

假如GC的時候,有堆的一部分內容被交換到swap空間中,遍歷到這部分的時候就需要將其交換回記憶體,由於需要存取磁碟,所以相比實體記憶體,它的速度肯定慢的令人髮指,GC停頓的時間一定會非常非常恐怖;

進而導致Linux對swap分割區的回收滯後(記憶體到磁碟換入換出操作十分佔用CPU與系統IO),在高並行/QPS服務中,這種滯後帶來的結果是致命的(STW)。

Ø 問題解決

至此,答案似乎很清晰,我們只需嘗試把swap關閉或釋放掉,看看能否解決問題?

如何釋放swap?

  1. 設定vm.swappiness=0(重啟應用釋放swap後生效),表示儘可能不使用交換記憶體

a、 臨時設定方案,重啟後不生效

設定vm.swappiness為0

sysctl vm.swappiness=0

檢視swappiness值

cat /proc/sys/vm/swappiness

b、 永久設定方案,重啟後仍然生效

vi /etc/sysctl.conf

新增

vm.swappiness=0

  1. 關閉交換分割區swapoff –a

前提:首先要保證記憶體剩餘要大於等於swap使用量,否則會報Cannot allocate memory!swap分割區一旦釋放,所有存放在swap分割區的檔案都會轉存到實體記憶體上,可能會引發系統IO或者其他問題。

a、 檢視當前swap分割區掛載在哪?

b、 關停分割區

關閉swap交換區後的記憶體變化見下圖橙色框,此時swap分割區的檔案都轉存到了實體記憶體上

關閉Swap交換區後,於2.23再次發生Full GC,耗時190ms,問題得到解決。

Ø 疑惑

1、 是不是隻要開啟了swap交換區的JVM,在GC的時候都會耗時較長呢?

2、 既然JVM對swap如此不待見,為何JVM不明令禁止使用呢?

3、 swap工作機制是怎樣的?這臺實體記憶體為8g的server,使用了交換區記憶體(swap),說明實體記憶體不夠使用了,但是通過free命令檢視記憶體使用情況,實際實體記憶體似乎並沒有佔用那麼多,反而Swap已佔近1G?

free:除了buff/cache剩餘了多少記憶體

shared:共用記憶體

buff/cache:緩衝、快取區記憶體數(使用過高通常是程式頻繁存取檔案)

available:真實剩餘的可用記憶體數


大家可以想想,關閉交換磁碟快取意味著什麼?

其實大可不必如此激進,要知道這個世界永遠不是非0即1的,大家都會或多或少選擇走在中間,不過有些偏向0,有些偏向1而已。

很顯然,在swap這個問題上,JVM可以選擇偏向儘量少用,從而降低swap影響,要降低swap影響有必要弄清楚Linux記憶體回收是怎麼工作的,這樣才能不遺漏任何可能的疑點。

先來看看swap是如何觸發的?

Linux會在兩種場景下觸發記憶體回收,一種是在記憶體分配時發現沒有足夠空閒記憶體時會立刻觸發記憶體回收;另一種是開啟了一個守護行程(kswapd程序)週期性對系統記憶體進行檢查,在可用記憶體降低到特定閾值之後主動觸發記憶體回收。

通過如下圖示可以很容易理解,詳細資訊參見:http://hbasefly.com/2017/05/24/hbase-linux/

解答是不是隻要開啟了swap交換區的JVM,在GC的時候都會耗時較長

筆者去查了一下另外的一個應用,相關指標資訊請見下圖。

實名服務的QPS是非常高的,同樣能看到應用了swap,GC平均耗時 576ms,這是為什麼呢?

通過把時間範圍聚焦到發生GC的某一時間段,從監控指標圖可以看到swapUsed沒有任何變化,也就是說沒有swap活動,進而沒有影響到垃級回收的總耗時。

通過如下命令列舉出各程序swap空間佔用情況,很清楚的看到實名這個服務swap空間佔用的較少(僅54.2MB)

另一個顯著的現象是實名服務Full GC間隔較短(幾個小時一次),而我的服務平均間隔2週一次Full GC

基於以上推測

1、 實名服務由於 GC 間隔較短,記憶體中的東西根本沒有機會置換到swap中就被回收了,GC的時候不需要將swap分割區中的資料交換回實體記憶體中,完全基於記憶體計算,所以要快很多

2、 將哪些記憶體資料置換進swap交換區的篩選策略應該是類似於LRU演演算法(最近最少使用原則)

為了證實上述猜測,我們只需跟蹤swap變更紀錄檔,監控資料變化即可得到答案,這裡採用一段shell 指令碼實現

#!/bin/bash 
echo -e `date +%y%m%d%H%M%S` 
echo -e "PID\t\tSwap\t\tProc_Name" 

#拿出/proc目錄下所有以數位為名的目錄(程序名是數位才是程序,其他如sys,net等存放的是其他資訊) 
for pid in `ls -l /proc | grep ^d | awk '{ print $9 }'| grep -v [^0-9]` 
do 
    if [ $pid -eq 1 ];then continue;fi 
    grep -q "Swap" /proc/$pid/smaps 2>/dev/null 
    if [ $? -eq 0 ];then 
        swap=$(gawk '/Swap/{ sum+=$2;} END{ print sum }' /proc/$pid/smaps) #統計佔用的swap分割區的 大小 單位是KB 
        proc_name=$(ps aux | grep -w "$pid" | awk '!/grep/{ for(i=11;i<=NF;i++){ printf("%s ",$i); }}') #取出程序的名字 
        if [ $swap -gt 0 ];then #判斷是否佔用swap 只有佔用才會輸出 
            echo -e "${pid}\t${swap}\t${proc_name:0:100}" 
    fi 
   fi
done | sort -k2nr | head -10 | gawk -F'\t' '{ #排序取前 10 
    pid[NR]=$1; 
    size[NR]=$2; 
    name[NR]=$3; 
} 
END{ 
    for(id=1;id<=length(pid);id++) 
    { 
    if(size[id]<1024) 
        printf("%-10s\t%15sKB\t%s\n",pid[id],size[id],name[id]); 
    else if(size[id]<1048576) 
        printf("%-10s\t%15.2fMB\t%s\n",pid[id],size[id]/1024,name[id]);
    else 
    printf("%-10s\t%15.2fGB\t%s\n",pid[id],size[id]/1048576,name[id]); 
    } 
}'

由於上面圖中 2022.3.2 19:57:00 至 2022.3.2 19:58:00 發生了一次Full GC,我們重點關注下這一分鐘內swap交換區的變化即可,我這裡每10s做一次資訊採集,可以看到在GC時點前後,swap確實沒有變化

通過上述分析,迴歸本文核心問題上,現在看來我的處理方式過於激進了,其實也可以不用關閉swap,通過適當降低堆大小,也是能夠解決問題的。

這也側面的說明,部署Java服務的Linux系統,在記憶體分配上並不是無腦大而全,需要綜合考慮不同場景下JVM對Java永久代 、Java堆(新生代和老年代)、執行緒棧、Java NIO所使用記憶體的需求。

總結

綜上,我們得出結論,swap和GC同一時候發生會導致GC時間非常長,JVM嚴重卡頓,極端的情況下會導致服務崩潰。

主要原因是:JVM進行GC時,需要對對應堆分割區的已用記憶體進行遍歷,假如GC的時候,有堆的一部分內容被交換到swap中,遍歷到這部分的時候就須要將其交換回記憶體;更極端情況同一時刻因為記憶體空間不足,就需要把記憶體中堆的另外一部分換到SWAP中去,於是在遍歷堆分割區的過程中,會把整個堆分割區輪流往SWAP寫一遍,導致GC時間超長。線上應該限制swap區的大小,如果swap佔用比例較高應該進行排查和解決,適當的時候可以通過降低堆大小,或者新增實體記憶體。

因此,部署Java服務的Linux系統,在記憶體分配上要慎重。

以上內容希望可以起到拋轉引玉的作用,如有理解不到位的地方煩請指出。