在上篇文章 《深入理解 Linux 實體記憶體分配全鏈路實現》 中,筆者為大家詳細介紹了 Linux 記憶體分配在核心中的整個鏈路實現:
但是當核心執行到 get_page_from_freelist 函數,準備進入夥伴系統執行具體記憶體分配動作的相關邏輯,筆者考慮到文章篇幅的原因,並沒有過多的著墨,算是留下了一個小尾巴。
那麼本文筆者就為大家完整地介紹一下夥伴系統這部分的內容,我們將基於核心 5.4 版本的原始碼來詳細的討論一下夥伴系統在核心中的設計與實現。
如上圖所示,核心會為 NUMA 節點中的每個實體記憶體區域 zone 分配一個夥伴系統用於管理該實體記憶體區域 zone 裡的空閒記憶體頁。
而夥伴系統的核心資料結構就封裝在 struct zone 裡,關於 struct zone 結構體的詳細介紹感興趣的朋友可以回看下筆者之前的文章 《深入理解 Linux 實體記憶體管理》中第五小節 「 5. 核心如何管理 NUMA 節點中的實體記憶體區域 」 的內容。
在本小節中,我們聚焦於夥伴系統相關的資料結構介紹~~
struct zone {
// 被夥伴系統所管理的實體記憶體頁個數
atomic_long_t managed_pages;
// 夥伴系統的核心資料結構
struct free_area free_area[MAX_ORDER];
}
struct zone 結構中的 managed_pages 用於表示該記憶體區域內被夥伴系統所管理的實體記憶體頁數量。
而 managed_pages 的計算方式之前也介紹過了,它是通過 present_pages (不包含記憶體空洞)減去核心為應對緊急情況而預留的實體記憶體頁 reserved_pages 得到的。
從這裡可以看出夥伴系統所管理的空閒實體記憶體頁並不包含緊急預留記憶體
夥伴系統的真正核心資料結構就是這個 struct free_area 型別的陣列 free_area[MAX_ORDER] 。MAX_ORDER 就是筆者在《深入理解 Linux 實體記憶體分配全鏈路實現》 「 的第一小節 "1. 核心實體記憶體分配介面 」 中介紹的分配階 order 的最大值減 1。
夥伴系統所分配的實體記憶體頁全部都是物理上連續的,並且只能分配 2 的整數冪個頁,這裡的整數冪在核心中稱之為分配階 order。
在我們呼叫實體記憶體分配介面時,均需要指定這個分配階 order,意思是從夥伴系統申請多少個實體記憶體頁,假設我們指定分配階為 order,那麼就會從夥伴系統中申請 2 的 order 次冪個實體記憶體頁。
夥伴系統會將實體記憶體區域中的空閒記憶體根據分配階 order 劃分出不同尺寸的記憶體塊,並將這些不同尺寸的記憶體塊分別用一個雙向連結串列組織起來。
比如:分配階 order 為 0 時,對應的記憶體塊就是一個 page。分配階 order 為 1 時,對應的記憶體塊就是 2 個 pages。依次類推,當分配階 order 為 n 時,對應的記憶體塊就是 2 的 order 次冪個 pages。
MAX_ORDER - 1 就是核心中規定的分配階 order 的最大值,定義在 /include/linux/mmzone.h
檔案中,最大分配階 MAX_ORDER - 1 = 10,也就是說一次,最多隻能從夥伴系統中申請 1024 個記憶體頁,對應 4M 大小的連續實體記憶體。
/* Free memory management - zoned buddy allocator. */
#ifndef CONFIG_FORCE_MAX_ZONEORDER
#define MAX_ORDER 11
陣列 free_area[MAX_ORDER] 中的索引表示的就是分配階 order,用於指定對應雙向連結串列組織管理的記憶體塊包含多少個 page。
我們可以通過 cat /proc/buddyinfo
命令來檢視 NUMA 節點中不同記憶體區域 zone 的夥伴系統當前狀態:
上圖展示了不同記憶體區域夥伴系統的 free_area[MAX_ORDER] 陣列中,不同分配階對應的記憶體塊個數,從左到右依次是 0 階,1 階, ........ ,10 階對應的雙向連結串列中包含的記憶體塊個數。
以上內容展示的只是夥伴系統的一個基本骨架,有了這個基本骨架之後,下面筆者繼續按照一步一圖的方式,來為大家揭開伙伴系統的完整樣貌。
我們先從 free_area[MAX_ORDER] 陣列的型別 struct free_area 結構開始談起~~~
struct free_area {
struct list_head free_list[MIGRATE_TYPES];
unsigned long nr_free;
};
struct list_head {
// 雙向連結串列
struct list_head *next, *prev;
};
根據前邊的內容我們知道 free_area[MAX_ORDER] 陣列描述的只是夥伴系統的一個基本骨架,陣列中的每一個元素統一組織儲存了相同尺寸的記憶體塊。記憶體塊的尺寸分為 0 階,1 階 ,........ ,10 階,一共 MAX_ORDER 個尺寸。
struct free_area 主要描述的就是相同尺寸的記憶體塊在夥伴系統中的組織結構, nr_free 則表示的是該尺寸的記憶體塊在當前夥伴系統中的個數,這個值會隨著記憶體的分配而減少,隨著記憶體的回收而增加。
注意:nr_free 表示的可不是空閒記憶體頁 page 的個數,而是空閒記憶體塊的個數,對於 0 階的記憶體塊來說 nr_free 確實表示的是單個記憶體頁 page 的個數,因為 0 階記憶體塊是由一個 page 組成的,但是對於 1 階記憶體塊來說,nr_free 則表示的是 2 個 page 集合的個數,以此類推對於 n 階記憶體塊來說,nr_free 表示的是 2 的 n 次方 page 集合的個數
這些相同尺寸的記憶體塊在 struct free_area 結構中是通過 struct list_head 結構型別的雙向連結串列統一組織起來的。
按理來說,核心只需要將這些相同尺寸的記憶體塊在 struct free_area 中用一個雙向連結串列串聯起來就行了。
但是我們從原始碼中卻看到核心是用多個雙向連結串列來組織這些相同尺寸的記憶體塊的,這些雙向連結串列組成一個陣列 free_list[MIGRATE_TYPES],該陣列中雙向連結串列的個數為 MIGRATE_TYPES。
我們從 MIGRATE_TYPES 的字面意思上可以看出,核心會根據實體記憶體頁的遷移型別將這些相同尺寸的記憶體塊近一步通過不同的雙向連結串列重新組織起來。
free_area 是將相同尺寸的記憶體塊組織起來,free_list 是在 free_area 的基礎上近一步根據頁面的遷移型別將這些相同尺寸的記憶體塊劃分到不同的雙向連結串列中管理
而實體記憶體頁面的遷移型別 MIGRATE_TYPES 定義在 /include/linux/mmzone.h
檔案中:
enum migratetype {
MIGRATE_UNMOVABLE, // 不可移動
MIGRATE_MOVABLE, // 可移動
MIGRATE_RECLAIMABLE, // 可回收
MIGRATE_PCPTYPES, // 屬於 CPU 快取記憶體中的型別,PCP 是 per_cpu_pageset 的縮寫
MIGRATE_HIGHATOMIC = MIGRATE_PCPTYPES, // 緊急記憶體
#ifdef CONFIG_CMA
MIGRATE_CMA, // 預留的連續記憶體 CMA
#endif
#ifdef CONFIG_MEMORY_ISOLATION
MIGRATE_ISOLATE, /* can't allocate from here */
#endif
MIGRATE_TYPES // 不代表任何區域,只是單純表示一共有多少個遷移型別
};
MIGRATE_UNMOVABLE 表示不可移動的頁面型別,這種型別的實體記憶體頁面是固定的不能隨意移動,核心所需要的核心記憶體大多數是從 MIGRATE_UNMOVABLE 型別的頁面中進行分配,這部分記憶體一般位於核心虛擬地址空間中的直接對映區。
在核心虛擬地址空間的直接對映區中,虛擬記憶體地址與實體記憶體地址都是直接對映的,虛擬記憶體地址通過減去一個固定的偏移量就可以直接得到實體記憶體地址,由於這種直接對映的關係,所以這部分記憶體是不能移動的,因為一旦移動虛擬記憶體地址就會發生變化,這樣一來虛擬記憶體地址減去固定的偏移得到的實體記憶體地址就不一樣了。
MIGRATE_MOVABLE 表示可以移動的記憶體頁型別,這種頁面型別一般用於在程序使用者空間中分配,因為在使用者空間中虛擬記憶體與實體記憶體都是通過頁表來動態對映的,物理頁移動之後,只需要改變頁表中的對映關係即可,而虛擬記憶體地址並不需要改變。一切對程序來說都是透明的。
MIGRATE_RECLAIMABLE 表示不能移動,但是可以直接回收的頁面型別,比如前面提到的檔案快取頁,它們就可以直接被回收掉,當再次需要的時候可以從磁碟中繼續讀取生成。或者一些生命週期比較短的記憶體頁,比如 DMA 快取區中的記憶體頁也是可以被直接回收掉。
MIGRATE_PCPTYPES 則表示 CPU 快取記憶體中的頁面型別,PCP 是 per_cpu_pageset 的縮寫,每個 CPU 對應一個 per_cpu_pageset 結構,裡面包含了快取記憶體中的冷頁和熱頁。這部分的詳細內容感興趣的可以回看下筆者的這篇文章 《深入理解 Linux 實體記憶體管理》中的 「 5.7 實體記憶體區域中的冷熱頁 」 小節。
MIGRATE_CMA 表示屬於 CMA 區域中的記憶體頁型別,CMA 的全稱是 contiguous memory allocator,顧名思義它是一個分配連續實體記憶體頁面的分配器用於分配連續的實體記憶體。
大家可能好奇了,我們這節講到的夥伴系統分配的不也是連續的實體記憶體嗎?為什麼又會多出個 CMA 呢?
原因還是前邊我們多次提到的記憶體碎片對記憶體分配的巨大影響,隨著系統的長時間執行,不可避免的會產生記憶體碎片,這些記憶體碎片會導致在記憶體充足的情況下卻依然找不到一片足夠大的連續實體記憶體,夥伴系統在這種情況下就會失敗,而連續的實體記憶體分配對於核心來說又是剛需,比如:一些 DMA 裝置只能存取連續的實體記憶體,核心對於大頁的支援也需要連續的實體記憶體。
所以為了解決這個問題,核心會在系統剛剛啟動的時候,這時記憶體還很充足,先預留一部分連續的實體記憶體,這部分實體記憶體就是 CMA 區域,這部分記憶體可以被程序正常的使用,當有連續記憶體分配需求時,核心會通過頁面回收或者遷移的方式將這部分記憶體騰出來給 CMA 分配。
CMA 的初始化是在夥伴系統初始化之前就已經完成的
MIGRATE_ISOLATE 則是一個虛擬區域,用於跨越 NUMA 節點移動實體記憶體頁,核心可以將實體記憶體頁移動到使用該頁最頻繁的 CPU 所在的 NUMA 節點中。
在介紹完這些物理頁面的遷移型別 MIGRATE_TYPES 之後,大家可能不禁有疑問,核心為啥會設定這麼多的頁面遷移型別呢 ?
答案還是為了解決前面我們反覆提到的記憶體碎片問題,當系統長時間執行之後,隨著不同尺寸記憶體的分配和釋放,就會引起記憶體碎片,這些碎片會導致核心在明明還有足夠記憶體的前提下,仍然無法找到一塊足夠大的連續記憶體分配。如下圖所示:
上圖中顯示的這 7 個空閒的記憶體頁以碎片的形式存在於記憶體中,這就導致明明還有 7 個空閒的記憶體頁,但是最大的連續記憶體區域只有 1 個記憶體頁,當核心想要申請 2 個連續的記憶體頁時就會導致失敗。
很長時間以來,實體記憶體碎片一直是 Linux 作業系統的弱點,所以核心在 2.6.24 版本中引入了以下方式來避免記憶體碎片。
如果這些記憶體頁是可以遷移的,核心就會將空閒的記憶體頁遷移至一起,已分配的記憶體頁遷移至一起,形成了一整塊足夠大的連續記憶體區域。
如果這些記憶體頁是可以回收的,核心也可以通過回收頁面的方式,整理出一塊足夠大的空閒連續記憶體區域。
在我們清楚了以上介紹的基礎知識之後,再回過頭來看夥伴系統的這些核心資料結構,是不是就變得容易理解了~~
struct zone {
// 被夥伴系統所管理的物理頁數
atomic_long_t managed_pages;
// 夥伴系統的核心資料結構
struct free_area free_area[MAX_ORDER];
}
struct free_area {
struct list_head free_list[MIGRATE_TYPES];
unsigned long nr_free;
};
首先夥伴系統會將實體記憶體區域 zone 中的空閒記憶體頁按照分配階 order 將相同尺寸的記憶體塊組織在 free_area[MAX_ORDER] 陣列中:
隨後在 struct free_area 結構中夥伴系統近一步根據這些相同尺寸記憶體塊的頁面遷移型別 MIGRATE_TYPES,將相同遷移型別的物理頁面組織在 free_list[MIGRATE_TYPES] 陣列中,最終形成了完整的夥伴系統結構:
我們可以通過 cat /proc/pagetypeinfo
命令可以檢視當前各個記憶體區域中的夥伴系統中不同頁面遷移型別以及不同 order 尺寸的記憶體塊個數。
page block order 表示系統中支援的巨型頁對應的分配階,pages per block 表示巨型頁中包含的 pages 個數。
好了,現在我們已經清楚了夥伴系統的資料結構全貌,接下來筆者會在這個基礎上繼續為大家介紹夥伴系統的核心工作原理~~
我們前面一直在談夥伴系統,那麼夥伴這個概念到底在核心中是什麼意思呢?其實下面這張夥伴系統的結構圖已經把夥伴的概念很清晰的表達出來了。
夥伴在我們日常生活中含義就是形影不離的好朋友,在核心中也是如此,核心中的夥伴指的是大小相同並且在實體記憶體上是連續的兩個或者多個 page。
比如在上圖中,free_area[1] 中組織的是分配階 order = 1 的記憶體塊,記憶體塊中包含了兩個連續的空閒 page。這兩個空閒 page 就是夥伴。
free_area[10] 中組織的是分配階 order = 10 的記憶體塊,記憶體塊中包含了 1024 個連續的空閒 page。這 1024 個空閒 page 就是夥伴。
再比如上圖中的 page0 和 page 1 是夥伴,page2 到 page 5 是夥伴,page6 和 page7 又是夥伴。但是 page0 和 page2 就不能成為夥伴,因為它們的實體記憶體是不連續的。同時 (page0 到 page3) 和 (page4 到 page7) 所組成的兩個記憶體塊又能構成一個夥伴。夥伴必須是大小相同並且在實體記憶體上是連續的兩個或者多個 page。
在 《深入理解 Linux 實體記憶體分配全鏈路實現》 一文中的第二小節 " 2. 實體記憶體分配核心原始碼實現 ",筆者介紹瞭如下四個記憶體分配的介面,核心可以通過這些介面向夥伴系統申請記憶體:
struct page *alloc_pages(gfp_t gfp, unsigned int order)
unsigned long __get_free_pages(gfp_t gfp_mask, unsigned int order)
unsigned long get_zeroed_page(gfp_t gfp_mask)
unsigned long __get_dma_pages(gfp_t gfp_mask, unsigned int order)
首先我們可以根據記憶體分配介面函數中的 gfp_t gfp_mask ,找到記憶體分配指定的 NUMA 節點和實體記憶體區域 zone ,然後找到實體記憶體區域 zone 對應的夥伴系統。
隨後核心通過介面中指定的分配階 order,可以定位到夥伴系統的 free_area[order] 陣列,其中存放的就是分配階為 order 的全部記憶體塊。
最後核心進一步通過 gfp_t gfp_mask 掩碼中指定的頁面遷移型別 MIGRATE_TYPE,定位到 free_list[MIGRATE_TYPE],這裡存放的就是符合記憶體分配要求的所有記憶體塊。通過遍歷這個雙向連結串列就可以輕鬆獲得要分配的記憶體。
比如我們向核心申請 ( 2 ^ (order - 1),2 ^ order ] 之間大小的記憶體,並且這塊記憶體我們指定的遷移型別為 MIGRATE_MOVABLE 時,核心會按照 2 ^ order 個記憶體頁進行申請。
隨後核心會根據 order 找到夥伴系統中的 free_area[order] 對應的 free_area 結構,並進一步根據頁面遷移型別定位到對應的 free_list[MIGRATE_MOVABLE],如果該遷移型別的 free_list 中沒有空閒的記憶體塊時,核心會進一步到上一級連結串列也就是 free_area[order + 1] 中尋找。
如果 free_area[order + 1] 中對應的 free_list[MIGRATE_MOVABLE] 連結串列中還是沒有,則繼續迴圈到更高一級 free_area[order + 2] 尋找,直到在 free_area[order + n] 中的 free_list[MIGRATE_MOVABLE] 連結串列中找到空閒的記憶體塊。
但是此時我們在 free_area[order + n] 連結串列中找到的空閒記憶體塊的尺寸是 2 ^ (order + n) 大小,而我們需要的是 2 ^ order 尺寸的記憶體塊,於是核心會將這 2 ^ (order + n) 大小的記憶體塊逐級減半分裂,將每一次分裂後的記憶體塊插入到相應的 free_area 陣列裡對應的 free_list[MIGRATE_MOVABLE] 連結串列中,並將最後分裂出的 2 ^ order 尺寸的記憶體塊分配給程序使用。
下面筆者舉一個具體的例子來為大家說明夥伴系統的整個記憶體分配過程:
為了清晰地給大家展現夥伴系統的記憶體分配過程,我們暫時忽略 MIGRATE_TYPES 相關的組織結構
我們假設當前夥伴系統中只有 order = 3 的空閒連結串列 free_area[3],其餘剩下的分配階 order 對應的空閒連結串列中均是空的。 free_area[3] 中僅有一個空閒的記憶體塊,其中包含了連續的 8 個 page。
現在我們向夥伴系統申請一個 page 大小的記憶體(對應的分配階 order = 0),那麼核心會在夥伴系統中首先檢視 order = 0 對應的空閒連結串列 free_area[0] 中是否有空閒記憶體塊可供分配。
隨後核心會根據前邊介紹的記憶體分配邏輯,繼續升級到 free_area[1] , free_area[2] 連結串列中尋找空閒記憶體塊,直到查詢到 free_area[3] 發現有一個可供分配的記憶體塊。這個記憶體塊中包含了 8 個 連續的空閒 page,但是我們只要一個 page 就夠了,那該怎麼辦呢?
於是核心先將 free_area[3] 中的這個空閒記憶體塊從連結串列中摘下,然後減半分裂成兩個記憶體塊,分裂出來的這兩個記憶體塊分別包含 4 個 page(分配階 order = 2)。
上圖分裂出的兩個記憶體塊,黃色的代表原有記憶體塊的前半部分,綠色代表原有記憶體塊的後半部分。
隨後核心會將分裂出的後半部分(圖中綠色部分,order = 2),插入到 free_rea[2] 連結串列中。
前半部分(圖中黃色部分,order = 2)繼續減半分裂,分裂出來的這兩個記憶體塊分別包含 2 個 page(分配階 order = 1)。如下圖中第 4 步所示,前半部分為黃色,後半部分為紫色。同理按照前邊的分裂邏輯,核心會將後半部分記憶體塊(紫色部分,分配階 order = 1)插入到 free_area[1] 連結串列中。
前半部分(圖中黃色部分,order = 1)在上圖中的第 6 步繼續減半分裂,分裂出來的這兩個記憶體塊分別包含 1 個 page(分配階 order = 0),前半部分為青色,後半部分為黃色。
後半部分插入到 frea_area[0] 連結串列中,前半部分返回給程序,這時記憶體分配成功,流程結束。
以上流程就是夥伴系統的核心記憶體分配過程,下面我們再把記憶體頁面的遷移屬性 MIGRATE_TYPES 考慮進來,來看一下完整的夥伴系統記憶體分配流程:
現在我們加上了記憶體 MIGRATE_TYPES 的組織結構,其實分配流程還是和核心流程一樣的,只不過上面提到的那些高階 order 的減半分裂情形都發生在各個 free_area[order] 中固定的 free_list[MIGRATE_TYPE] 裡罷了。
比如我們要求分配的記憶體遷移屬性要求是 MIGRATE_MOVABLE 型別,那麼減半分裂流程分別發生在 free_area[2] ,free_area[1] ,free_area[0] 對應的 free_list[MIGRATE_MOVABLE] 中,多了一個 free_list 的維度,僅此而已。
不過筆者這裡想重點著墨的地方是記憶體分配的一種異常情形,比如我們想要分配特定遷移型別的記憶體,但是當前夥伴系統所有 free_area[order] 裡對應的 free_list[MIGRATE_TYPE] 均無法滿足記憶體分配的需求(沒有足夠特定遷移型別的空閒記憶體塊)。那麼這種場景下核心會怎麼處理呢?
其實同樣的問題我們在 《深入理解 Linux 實體記憶體管理》 一文中也遇到過,當時筆者介紹記憶體 NUMA 架構的時候提到,如果當前 NUMA 節點無法滿足記憶體分配時,核心會跨越 NUMA 節點從其他節點上分配記憶體。
typedef struct pglist_data {
// NUMA 節點中的實體記憶體區域個數
int nr_zones;
// NUMA 節點中的實體記憶體區域
struct zone node_zones[MAX_NR_ZONES];
// NUMA 節點的備用列表
struct zonelist node_zonelists[MAX_ZONELISTS];
} pg_data_t;
每個 NUMA 節點的 struct pglist_data 結構中都會包含一個 node_zonelists,其中包含了當前NUMA 節點以及備用 NUMA 節點的所有記憶體區域以及對應的夥伴系統,當前 NUMA 節點記憶體不足時,核心會從 node_zonelists 中的備用 NUMA 節點中分配記憶體。
這裡也是同樣的道理,當夥伴系統中指定的遷移列表 free_list[MIGRATE_TYPE] 無法滿足記憶體分配需求時,核心根據不同遷移型別定義了不同的 fallback 規則:
/*
* This array describes the order lists are fallen back to when
* the free lists for the desirable migrate type are depleted
*
* The other migratetypes do not have fallbacks.
*/
static int fallbacks[MIGRATE_TYPES][3] = {
[MIGRATE_UNMOVABLE] = { MIGRATE_RECLAIMABLE, MIGRATE_MOVABLE, MIGRATE_TYPES },
[MIGRATE_MOVABLE] = { MIGRATE_RECLAIMABLE, MIGRATE_UNMOVABLE, MIGRATE_TYPES },
[MIGRATE_RECLAIMABLE] = { MIGRATE_UNMOVABLE, MIGRATE_MOVABLE, MIGRATE_TYPES },
};
比如:MIGRATE_UNMOVABLE 型別的 free_list 記憶體不足時,核心會 fallback 到 MIGRATE_RECLAIMABLE 中去獲取,如果還是不足,則再次降級到 MIGRATE_MOVABLE 中獲取,如果仍然無法滿足記憶體分配,才會失敗退出。
正常的分配流程先是從低階到高階依次查詢空閒記憶體塊,然後將高階中的記憶體塊依次減半分裂到低階 free_list 連結串列中。
記憶體分配 fallback 流程則剛好是相反的,它是先從備用 fallback 型別的遷移列表中的最高階開始查詢,找到一塊空閒記憶體塊之後,先遷移到最初指定的 free_list[MIGRATE_TYPE] 連結串列中,然後在指定的 free_list[MIGRATE_TYPE] 連結串列執行減半分裂。
核心這裡的 fallback 策略是:如果無法避免分配遷移型別不同的記憶體塊,那麼就分配一個儘可能大的記憶體塊(從最高階開始查詢),避免向其他連結串列引入記憶體碎片。
筆者還是以上邊的例子說明,當我們向夥伴系統申請 MIGRATE_UNMOVABLE 遷移型別的記憶體時,假設核心在夥伴系統中的 free_area[0] 到 free_area[10] 中的所有 free_list[MIGRATE_UNMOVABLE] 連結串列中均無法找到一個空閒的記憶體塊。
那麼就會 fallback 到 MIGRATE_RECLAIMABLE 型別,從最高階 free_area[10] 中的 free_list[MIGRATE_RECLAIMABLE] 連結串列開始查詢,如果找到一個空閒的記憶體塊,則首先會遷移到對應的 order 的 free_list[MIGRATE_UNMOVABLE] 連結串列,然後流程繼續回到核心流程,在各個 free_area[order] 對應的 free_list[MIGRATE_UNMOVABLE] 連結串列中執行減半分裂。
這裡大家只需要理解一下 fallback 的大概流程,詳細內容筆者會在後面介紹夥伴系統實現的章節詳細解析~~~
記憶體有分配就會有釋放,本小節我們就來看下如何將記憶體塊釋放回夥伴系統中。在上個小節中筆者為大家介紹了夥伴系統記憶體分配的完整流程,核心就是從高階 free_list 中尋找空閒記憶體塊,然後依次減半分裂。
夥伴系統中的記憶體回收剛好和記憶體分配的過程相反,核心則是從低階 free_list 中尋找釋放記憶體塊的夥伴,如果沒有夥伴則將要釋放的記憶體塊插入到對應分配階 order 的 free_list中。如果存在夥伴,則將釋放記憶體塊與它的夥伴合併,作為一個新的記憶體塊繼續到更高階的 free_list 中迴圈重複上述過程,直到不能合併為止。
夥伴的概念我們已經在本文 《 2. 到底什麼是夥伴 》小節中介紹過了,核心就是兩個夥伴記憶體塊必須是大小相同並且在實體記憶體上是連續的。
下面筆者還是舉一個具體的例子來為大家展現夥伴系統記憶體回收的過程:
為了清晰地給大家展現夥伴系統的記憶體回收過程,我們暫時忽略 MIGRATE_TYPES 相關的組織結構
假設當前夥伴系統的狀態如上圖所示,現在我們需要向夥伴系統釋放一個記憶體頁(order = 0),編號為10。
這裡筆者先來解釋下上圖夥伴系統中所管理的實體記憶體頁後邊編號的含義:我們知道夥伴系統中所管理的全部是連續的實體記憶體,既然是連續的,那麼每個記憶體頁 page 都會有一個固定的偏移(類似陣列中的下標)。
這一點我們在前邊的文章 《深入理解 Linux 實體記憶體管理》的 「 4.2 NUMA 節點描述符 pglist_data 結構 」 小節中已經介紹過了,在每個 NUMA 節點中,核心通過一個 node_mem_map 陣列來組織節點內的實體記憶體頁 page。
typedef struct pglist_data {
// NUMA 節點id
int node_id;
// 指向 NUMA 節點內管理所有物理頁 page 的陣列
struct page *node_mem_map;
}
上圖夥伴系統中所管理的記憶體頁 page 只是被夥伴系統組織之後的檢視,下面是實體記憶體頁在實體記憶體上的真實檢視(包含要被釋放的記憶體頁 10):
有了這些基本概念之後,我回過頭來在看 page10 釋放回夥伴系統的整個過程:
下面的流程需要大家時刻對比記憶體頁在實體記憶體上的真實檢視,不要被夥伴系統的組織檢視所幹擾。
由於我們要釋放的記憶體塊只包含了一個實體記憶體頁 page10,所以它的分配階 order = 0,首先核心需要在夥伴系統 free_area[0] 中查詢與 page10 大小相等並且連續的記憶體塊(夥伴)。
從實體記憶體的真實檢視中我們可以看到 page11 是 page10 的夥伴,於是將 page11 從 free_area[0] 上摘下並與 page10 合併組成一個新的記憶體塊(分配階 order = 1)。隨後核心會在 free_area[1] 中查詢新記憶體塊的夥伴:
我們繼續對比實體記憶體頁的真實檢視,發現在 free_area[1] 中 page8 和 page9 組成的記憶體塊與 page10 和 page11 組成的記憶體塊是夥伴,於是繼續將這兩個記憶體塊(分配階 order = 1)繼續合併成一個新的記憶體塊(分配階 order = 2)。隨後核心會在 free_area[2] 中查詢新記憶體塊的夥伴:
繼續對比實體記憶體頁的真實檢視,發現在 free_area[2] 中 page12,page13,page14,page15 組成的記憶體塊與 page8,page9,page10,page11 組成的新記憶體塊是夥伴,於是將它們從 free_area[2] 上摘下繼續合併成一個新的記憶體塊(分配階 order = 3),隨後核心會在 free_area[3] 中查詢新記憶體塊的夥伴:
對比實體記憶體頁的真實檢視,我們發現在 free_area[3] 中的記憶體塊(page20 到 page 27)與新合併的記憶體塊(page8 到 page15)雖然大小相同但是物理上並不連續,所以它們不是夥伴,不能在繼續向上合併了。於是核心將 page8 到 pag15 組成的記憶體塊(分配階 order = 3)插入到 free_area[3] 中,至此記憶體釋放過程結束。
到這裡關於夥伴系統記憶體分配以及回收的核心原理筆者就為大家全部介紹完了,記憶體分配和釋放的過程剛好是相反的過程。
記憶體分配是從高階先查詢到空閒記憶體塊,然後依次減半分裂,將分裂後的記憶體塊插入到低階的 free_list 中,將最後分裂出來的記憶體塊分配給程序。
記憶體釋放是先從低階開始查詢釋放記憶體塊的夥伴,如果找到,則兩兩合併成一個新的記憶體塊,隨後繼續到高階中去查詢新記憶體塊的夥伴,直到沒有夥伴可以合併。
一個是高階到低階分裂,一個是低階到高階合併。
現在我們已經清楚了夥伴系統的所有核心原理,但是幹講原理總覺得 talk is cheap,還是需要 show 一下 code,所以接下來筆者會帶大家看一下核心中夥伴系統的實現原始碼,真刀真槍的來一下。
但真正進入夥伴系統之前,核心還是做了很多鋪墊工作,為了給大家解釋清楚這些內容,我們還是需要重新回到上篇文章 《深入理解 Linux 實體記憶體分配全鏈路實現》 「5. __alloc_pages 記憶體分配流程總覽」 小節中留下的尾巴,正式來介紹下 get_page_from_freelist 函數。
在上篇文章 「3. 實體記憶體分配核心原始碼實現」 小節中,筆者為大家介紹了 Linux 實體記憶體分配的完整流程,我們知道實體記憶體分配總體上分為兩個路徑,核心首先嚐試的是在快速路徑下分配記憶體,如果不行的話,核心會走慢速路徑分配記憶體。
無論是快速路徑還是慢速路徑下的記憶體分配都需要最終呼叫 get_page_from_freelist 函數進行最終的記憶體分配。只不過,不同路徑下 get_page_from_freelist 函數的記憶體分配策略以及需要考慮的記憶體水位線會有所不同,其中慢速路徑下的記憶體分配策略會更加激進一些,這一點我們在上篇文章的相關章節內容介紹中體會很深。
在每次呼叫 get_page_from_freelist 函數之前,核心都會根據新的記憶體分配策略來重新初始化 struct alloc_context 結構,alloc_context 結構體中包含了記憶體分配所需要的所有核心引數。詳細初始化過程可以回看上篇文章的 「3.3 prepare_alloc_pages」 小節的內容。
struct alloc_context {
// 執行程序 CPU 所在 NUMA 節點以及其所有備用 NUMA 節點中允許記憶體分配的記憶體區域
struct zonelist *zonelist;
// NUMA 節點狀態掩碼
nodemask_t *nodemask;
// 記憶體分配優先順序最高的記憶體區域 zone
struct zoneref *preferred_zoneref;
// 實體記憶體頁的遷移型別分為:不可遷移,可回收,可遷移型別,防止記憶體碎片
int migratetype;
// 記憶體分配最高優先順序的記憶體區域 zone
enum zone_type highest_zoneidx;
// 是否允許當前 NUMA 節點中的髒頁均衡擴散遷移至其他 NUMA 節點
bool spread_dirty_pages;
};
這裡最核心的兩個引數就是 zonelist 和 preferred_zoneref。preferred_zoneref 表示當前本地 NUMA 節點(優先順序最高),其中 zonelist 我們在 《深入理解 Linux 實體記憶體管理》的 「 4.3 NUMA 節點實體記憶體區域的劃分 」 小節中詳細介紹過,zonelist 裡面包含了當前 NUMA 節點在內的所有備用 NUMA 節點的所有實體記憶體區域,用於當前 NUMA 節點沒有足夠空閒記憶體的情況下進行跨 NUMA 節點分配。
typedef struct pglist_data {
// NUMA 節點中的實體記憶體區域個數
int nr_zones;
// NUMA 節點中的實體記憶體區域
struct zone node_zones[MAX_NR_ZONES];
// NUMA 節點的備用列表
struct zonelist node_zonelists[MAX_ZONELISTS];
} pg_data_t;
struct pglist_data 裡的 node_zonelists 是一個全集,而 struct alloc_context 裡的 zonelist 是在記憶體分配過程中,根據指定的記憶體分配策略從全集 node_zonelists 過濾出來的一個子集(允許進行本次記憶體分配的所有 NUMA 節點及其記憶體區域)。
get_page_from_freelist 的核心邏輯其實很簡單,就是遍歷 struct alloc_context 裡的 zonelist,挨個檢查各個 NUMA 節點中的實體記憶體區域是否有足夠的空閒記憶體可以滿足本次的記憶體分配要求,如果可以滿足則進入該實體記憶體區域的夥伴系統中完整真正的記憶體分配動作。
下面我們先來看一下 get_page_from_freelist 函數的完整邏輯:
/*
* get_page_from_freelist goes through the zonelist trying to allocate
* a page.
*/
static struct page *
get_page_from_freelist(gfp_t gfp_mask, unsigned int order, int alloc_flags,
const struct alloc_context *ac)
{
struct zoneref *z;
// 當前遍歷到的記憶體區域 zone 參照
struct zone *zone;
// 最近遍歷的NUMA節點
struct pglist_data *last_pgdat = NULL;
// 最近遍歷的NUMA節點中包含的髒頁數量是否在核心限制範圍內
bool last_pgdat_dirty_ok = false;
// 如果需要避免記憶體碎片,則 no_fallback = true
bool no_fallback;
retry:
// 是否需要避免記憶體碎片
no_fallback = alloc_flags & ALLOC_NOFRAGMENT;
z = ac->preferred_zoneref;
// 開始遍歷 zonelist,查詢可以滿足本次記憶體分配的實體記憶體區域 zone
for_next_zone_zonelist_nodemask(zone, z, ac->highest_zoneidx,
ac->nodemask) {
// 指向分配成功之後的記憶體
struct page *page;
// 記憶體分配過程中設定的水位線
unsigned long mark;
// 檢查記憶體區域所在 NUMA 節點是否在程序所允許的 CPU 上
if (cpusets_enabled() &&
(alloc_flags & ALLOC_CPUSET) &&
!__cpuset_zone_allowed(zone, gfp_mask))
continue;
// 每個 NUMA 節點中包含的髒頁數量都有一定的限制。
// 如果本次記憶體分配是為 page cache 分配的 page,用於寫入資料(不久就會變成髒頁)
// 這裡需要檢查當前 NUMA 節點的髒頁比例是否在限制範圍內允許的
// 如果沒有超過髒頁限制則可以進行分配,如果已經超過 last_pgdat_dirty_ok = false
if (ac->spread_dirty_pages) {
if (last_pgdat != zone->zone_pgdat) {
last_pgdat = zone->zone_pgdat;
last_pgdat_dirty_ok = node_dirty_ok(zone->zone_pgdat);
}
if (!last_pgdat_dirty_ok)
continue;
}
// 如果核心設定了避免記憶體碎片標識,在本地節點無法滿足記憶體分配的情況下(因為需要避免記憶體碎片)
// 這輪迴圈會遍歷 remote 節點(跨NUMA節點)
if (no_fallback && nr_online_nodes > 1 &&
zone != ac->preferred_zoneref->zone) {
int local_nid;
// 如果本地節點分配記憶體失敗是因為避免記憶體碎片的原因,那麼會繼續回到本地節點進行 retry 重試同時取消 ALLOC_NOFRAGMENT(允許引入碎片)
local_nid = zone_to_nid(ac->preferred_zoneref->zone);
if (zone_to_nid(zone) != local_nid) {
// 核心認為保證原生的區域性性會比避免記憶體碎片更加重要
alloc_flags &= ~ALLOC_NOFRAGMENT;
goto retry;
}
}
// 獲取本次記憶體分配需要考慮到的記憶體水位線,快速路徑下是 WMARK_LOW, 慢速路徑下是 WMARK_MIN
mark = wmark_pages(zone, alloc_flags & ALLOC_WMARK_MASK);
// 檢查當前遍歷到的 zone 裡剩餘的空閒記憶體容量是否在指定水位線 mark 之上
// 剩餘記憶體容量在水位線之下返回 false
if (!zone_watermark_fast(zone, order, mark,
ac->highest_zoneidx, alloc_flags,
gfp_mask)) {
int ret;
// 如果本次記憶體分配策略是忽略記憶體水位線,那麼就在本次遍歷到的zone裡嘗試分配記憶體
if (alloc_flags & ALLOC_NO_WATERMARKS)
goto try_this_zone;
// 如果本次記憶體分配不能忽略記憶體水位線的限制,那麼就會判斷當前 zone 所屬 NUMA 節點是否允許進行記憶體回收
if (!node_reclaim_enabled() ||
!zone_allows_reclaim(ac->preferred_zoneref->zone, zone))
// 不允許進行記憶體回收則繼續遍歷下一個 NUMA 節點的記憶體區域
continue;
// 針對當前 zone 所在 NUMA 節點進行記憶體回收
ret = node_reclaim(zone->zone_pgdat, gfp_mask, order);
switch (ret) {
case NODE_RECLAIM_NOSCAN:
// 返回該值表示當前 NUMA 節點沒有必要進行回收。比如快速分配路徑下就不處理頁面回收的問題
continue;
case NODE_RECLAIM_FULL:
// 返回該值表示通過掃描之後發現當前 NUMA 節點並沒有可以回收的記憶體頁
continue;
default:
// 該分支表示當前 NUMA 節點已經進行了記憶體回收操作
// zone_watermark_ok 判斷記憶體回收是否回收了足夠的記憶體能否滿足記憶體分配的需要
if (zone_watermark_ok(zone, order, mark,
ac->highest_zoneidx, alloc_flags))
goto try_this_zone;
continue;
}
}
try_this_zone:
// 這裡就是夥伴系統的入口,rmqueue 函數中封裝的就是夥伴系統的核心邏輯
// 從夥伴系統中獲取記憶體
page = rmqueue(ac->preferred_zoneref->zone, zone, order,
gfp_mask, alloc_flags, ac->migratetype);
if (page) {
// 分配記憶體成功,初始化記憶體頁 page
prep_new_page(page, order, gfp_mask, alloc_flags);
return page;
} else {
....... 省略 .....
}
}
// 記憶體分配失敗
return NULL;
}
與本文主題無關的非核心步驟大家通過筆者的註釋簡單瞭解即可,下面我們只介紹與本文主題相關的核心步驟。
雖然 get_page_from_freelist 函數的程式碼比較冗長,但是其核心邏輯比較簡單,主幹框架就是通過 for_next_zone_zonelist_nodemask 來遍歷當前 NUMA 節點以及備用節點的所有記憶體區域(zonelist),然後逐個通過 zone_watermark_fast 檢查這些記憶體區域 zone 中的剩餘空閒記憶體容量是否在指定的水位線 mark 之上。如果滿足水位線的要求則直接呼叫 rmqueue 進入夥伴系統分配記憶體,分配成功之後通過 prep_new_page 初始化分配好的記憶體頁 page。
如果當前正在遍歷的 zone 中剩餘空閒記憶體容量在指定的水位線 mark 之下,就需要通過 node_reclaim 觸發記憶體回收,隨後通過 zone_watermark_ok 檢查經過記憶體回收之後,核心是否回收到了足夠的記憶體以滿足本次記憶體分配的需要。如果記憶體回收到了足夠的記憶體則 zone_watermark_ok = true
隨後跳轉到 try_this_zone 分支在本記憶體區域 zone 中分配記憶體。否則繼續遍歷下一個 zone。
get_page_from_freelist 函數中的記憶體分配邏輯是要考慮記憶體水位線的,滿足記憶體分配要求的實體記憶體區域 zone 中的剩餘空閒記憶體容量必須在指定記憶體水位線之上。否則核心則認為記憶體不足不能進行記憶體分配。
在上篇文章 《深入理解 Linux 實體記憶體分配全鏈路實現》 中的 「3.2 記憶體分配的心臟 __alloc_pages」 小節的介紹中,我們知道在快速路徑下,記憶體分配策略中的水位線設定為 WMARK_LOW:
// 記憶體區域中的剩餘記憶體需要在 WMARK_LOW 水位線之上才能進行記憶體分配,否則失敗(初次嘗試快速記憶體分配)
unsigned int alloc_flags = ALLOC_WMARK_LOW;
在上篇文章 「4. 記憶體慢速分配入口 alloc_pages_slowpath」 小節的介紹中,我們知道在慢速路徑下,記憶體分配策略中的水位線又被調整為了 WMARK_MIN:
// 在慢速記憶體分配路徑中,會進一步放寬對記憶體分配的限制,將記憶體分配水位線調低到 WMARK_MIN
// 也就是說記憶體區域中的剩餘記憶體需要在 WMARK_MIN 水位線之上就可以進行記憶體分配了
unsigned int alloc_flags = ALLOC_WMARK_MIN | ALLOC_CPUSET;
如果記憶體分配仍然失敗,則核心會將記憶體分配策略中的水位線調整為 ALLOC_NO_WATERMARKS,表示再記憶體分配時,可以忽略水位線的限制,再一次進行重試。
不同的記憶體水位線會影響到記憶體分配邏輯,所以在通過 for_next_zone_zonelist_nodemask 遍歷 NUMA 節點中的實體記憶體區域的一開始就需要獲取該記憶體區域指定水位線的具體數值,核心通過 wmark_pages 宏來獲取:
#define wmark_pages(z, i) (z->_watermark[i] + z->watermark_boost)
struct zone {
// 實體記憶體區域中的水位線
unsigned long _watermark[NR_WMARK];
// 優化記憶體碎片對記憶體分配的影響,可以動態改變記憶體區域的基準水位線。
unsigned long watermark_boost;
}
關於記憶體區域 zone 中水位線的相關內容介紹,大家可以回看下筆者之前的文章 《深入理解 Linux 實體記憶體管理》 中 「 5.2 實體記憶體區域中的水位線 」 小節。
在我們通過 wmark_pages 獲取到當前記憶體區域 zone 的指定水位線 mark 之後,我們就需要近一步判斷當前 zone 中剩餘的空閒記憶體容量是否在水位線 mark 之上,這是保證記憶體分配順利進行的必要條件。
核心中判斷水位線的邏輯封裝在 zone_watermark_fast 和 __zone_watermark_ok 函數中,其中核心邏輯在 __zone_watermark_ok 裡,zone_watermark_fast 只是用來快速檢測分配階 order = 0 情況下的相關水位線情況。
下面我們先來看下 zone_watermark_fast 的邏輯:
static inline bool zone_watermark_fast(struct zone *z, unsigned int order,
unsigned long mark, int highest_zoneidx,
unsigned int alloc_flags, gfp_t gfp_mask)
{
long free_pages;
// 獲取當前記憶體區域中所有空閒的實體記憶體頁
free_pages = zone_page_state(z, NR_FREE_PAGES);
// 快速檢查分配階 order = 0 情況下相關水位線,空閒記憶體需要刨除掉為 highatomic 預留的緊急記憶體
if (!order) {
long usable_free;
long reserved;
// 可供本次記憶體分配使用的符合要求的真實可用記憶體,初始為 free_pages
// free_pages 為空閒記憶體頁的全集其中也包括了不能為本次記憶體分配提供記憶體的空閒記憶體
usable_free = free_pages;
// 獲取本次不能使用的空閒記憶體頁數量
reserved = __zone_watermark_unusable_free(z, 0, alloc_flags);
// 計算真正可供記憶體分配的空閒頁數量:空閒記憶體頁全集 - 不能使用的空閒頁
usable_free -= min(usable_free, reserved);
// 如果可用的空閒記憶體頁數量大於記憶體水位線與預留記憶體之和
// 那麼表示實體記憶體區域中的可用空閒記憶體能夠滿足本次記憶體分配的需要
if (usable_free > mark + z->lowmem_reserve[highest_zoneidx])
return true;
}
// 近一步檢查記憶體區域夥伴系統中是否有足夠的 order 階的記憶體塊可供分配
if (__zone_watermark_ok(z, order, mark, highest_zoneidx, alloc_flags,
free_pages))
return true;
........ 省略無關程式碼 .......
// 水位線檢查失敗
return false;
}
首先會通過 zone_page_state 來獲取當前 zone 中剩餘空閒記憶體頁的總體容量 free_pages。
筆者在 《深入理解 Linux 實體記憶體管理》的 「 5. 核心如何管理 NUMA 節點中的實體記憶體區域 」 小節中為大家介紹 struct zone 結構體的時候提過,每個記憶體區域 zone 裡有一個 vm_stat 用來存放與 zone 相關的各種統計變數。
struct zone {
// 該記憶體區域記憶體使用的統計資訊
atomic_long_t vm_stat[NR_VM_ZONE_STAT_ITEMS];
}
核心可以通過 zone_page_state 來存取 vm_stat 從而獲取對應的統計量,free_pages 就是其中的一個統計變數。但是這裡大家需要注意的是 free_pages 表示的當前 zone 裡剩餘空閒記憶體頁的一個總量,是一個全集的概念。其中還包括了記憶體區域的預留記憶體 lowmem_reserve 以及為 highatomic 預留的緊急記憶體。這些預留記憶體都有自己特定的用途,普通記憶體的申請不會用到預留記憶體。
流程如果進入到 if (!order)
分支的話表示本次記憶體分配只是申請一個(order = 0)空閒的記憶體頁,在這裡會快速的檢測相關水位線情況是否滿足,如果滿足就會快速返回。
這裡涉及到兩個重要的區域性變數,筆者需要向大家交代一下:
usable_free:表示可供本次記憶體分配使用的空閒記憶體頁總量。前邊我們提到 free_pages 表示的是剩餘空閒記憶體頁的一個全集,裡邊還包括很多不能進行普通記憶體分配的空閒記憶體頁,比如預留記憶體和緊急記憶體。
reserved:表示本次記憶體分配不能使用到的空閒記憶體頁數量,這一部分的記憶體頁數量計算是通過 __zone_watermark_unusable_free 函數完成的。最後使用 free_pages 減去 reserved 就可以得到真正的 usable_free 。
static inline long __zone_watermark_unusable_free(struct zone *z,
unsigned int order, unsigned int alloc_flags)
{
// ALLOC_HARDER 的設定表示可以使用 high-atomic 緊急預留記憶體
const bool alloc_harder = (alloc_flags & (ALLOC_HARDER|ALLOC_OOM));
long unusable_free = (1 << order) - 1;
// 如果沒有設定 ALLOC_HARDER 則不能使用 high_atomic 緊急預留記憶體
if (likely(!alloc_harder))
// 不可用記憶體的數量需要統計上 high-atomic 這部分記憶體
unusable_free += z->nr_reserved_highatomic;
#ifdef CONFIG_CMA
// 如果沒有設定 ALLOC_CMA 則表示本次記憶體分配不能從 CMA 區域獲取
if (!(alloc_flags & ALLOC_CMA))
// 不可用記憶體的數量需要統計上 CMA 區域中的空閒記憶體頁
unusable_free += zone_page_state(z, NR_FREE_CMA_PAGES);
#endif
// 返回不可用記憶體的數量,表示本次記憶體分配不能使用的記憶體容量
return unusable_free;
}
如果 usable_free > mark + z->lowmem_reserve[highest_zoneidx]
條件為 true 表示當前可用剩餘記憶體頁容量在水位線 mark 之上,可以進行記憶體分配,返回 true。
我們在 《深入理解 Linux 實體記憶體管理》的 " 5.2 實體記憶體區域中的水位線 " 小節中介紹水位線相關的計算邏輯的時候提過,水位線的計算是需要刨去 lowmem_reserve 預留記憶體的,也就是水位線的值並不包含 lowmem_reserve 記憶體在內。
所以這裡在判斷可用記憶體是否滿足水位線的關係時需要加上這部分 lowmem_reserve ,才能得到正確的結果。
如果本次記憶體分配申請的是高階記憶體塊( order > 0),則會進入 __zone_watermark_ok 函數中,近一步判斷夥伴系統中是否有足夠的高階記憶體塊能夠滿足 order 階的記憶體分配:
bool __zone_watermark_ok(struct zone *z, unsigned int order, unsigned long mark,
int highest_zoneidx, unsigned int alloc_flags,
long free_pages)
{
// 保證記憶體分配順利進行的最低水位線
long min = mark;
int o;
const bool alloc_harder = (alloc_flags & (ALLOC_HARDER|ALLOC_OOM));
// 獲取真正可用的剩餘空閒記憶體頁數量
free_pages -= __zone_watermark_unusable_free(z, order, alloc_flags);
// 如果設定了 ALLOC_HIGH 則水位線降低二分之一,使記憶體分配更加努力激進一些
if (alloc_flags & ALLOC_HIGH)
min -= min / 2;
if (unlikely(alloc_harder)) {
// 在要進行 OOM 的情況下記憶體分配會比普通的 ALLOC_HARDER 策略更加努力激進一些,所以這裡水位線會降低二分之一
if (alloc_flags & ALLOC_OOM)
min -= min / 2;
else
// ALLOC_HARDER 策略下水位線只會降低四分之一
min -= min / 4;
}
// 檢查當前可用剩餘記憶體是否在指定水位線之上。
// 記憶體的分配必須保證可用剩餘記憶體容量在指定水位線之上,否則不能進行記憶體分配
if (free_pages <= min + z->lowmem_reserve[highest_zoneidx])
return false;
// 流程走到這裡,對應記憶體分配階 order = 0 的情況下就已經 OK 了
// 剩餘空閒記憶體在水位線之上,那麼肯定能夠分配一頁出來
if (!order)
return true;
// 但是對於 high-order 的記憶體分配,這裡還需要近一步檢查夥伴系統
// 根據夥伴系統記憶體分配的原理,這裡需要檢查高階 free_list 中是否有足夠的空閒記憶體塊可供分配
for (o = order; o < MAX_ORDER; o++) {
// 從當前分配階 order 對應的 free_area 中檢查是否有足夠的記憶體塊
struct free_area *area = &z->free_area[o];
int mt;
// 如果當前 free_area 中的 nr_free = 0 表示對應 free_list 中沒有合適的空閒記憶體塊
// 那麼繼續到高階 free_area 中查詢
if (!area->nr_free)
continue;
// 檢查 free_area 中所有的遷移型別 free_list 是否有足夠的記憶體塊
for (mt = 0; mt < MIGRATE_PCPTYPES; mt++) {
if (!free_area_empty(area, mt))
return true;
}
#ifdef CONFIG_CMA
// 如果記憶體分配指定需要從 CMA 區域中分配連續記憶體
// 那麼就需要檢查 MIGRATE_CMA 對應的 free_list 是否是空
if ((alloc_flags & ALLOC_CMA) &&
!free_area_empty(area, MIGRATE_CMA)) {
return true;
}
#endif
// 如果設定了 ALLOC_HARDER,則表示可以從 HIGHATOMIC 區中的緊急預留記憶體中分配,檢查對應 free_list
if (alloc_harder && !free_area_empty(area, MIGRATE_HIGHATOMIC))
return true;
}
// 夥伴系統中的剩餘記憶體塊無法滿足 order 階的記憶體分配
return false;
}
在 __zone_watermark_ok 函數的開始需要計算出真正可用的剩餘記憶體 free_pages 。
// 獲取真正可用的剩餘空閒記憶體頁數量
free_pages -= __zone_watermark_unusable_free(z, order, alloc_flags);
緊接著核心會根據 ALLOC_HIGH 以及 ALLOC_HARDER 標識來決定是否降低水位線的要求。在 《深入理解 Linux 實體記憶體分配全鏈路實現》 一文中的 「3.1 記憶體分配行為標識掩碼 ALLOC_* 」 小節中筆者曾詳細的為大家介紹過這些 ALLOC_* 相關的掩碼,當時筆者提了一句,當記憶體分配策略設定為 ALLOC_HIGH 或者 ALLOC_HARDER 時,會使記憶體分配更加的激進,努力一些。
當時大家可能會比較懵,怎樣才算是激進?怎樣才算是努力呢?
其實答案就在這裡,當記憶體分配策略 alloc_flags 設定了 ALLOC_HARDER 時,水位線的要求會降低原來的四分之一,相當於放款了記憶體分配的限制。比原來更加努力使記憶體分配成功。
當記憶體分配策略 alloc_flags 設定了 ALLOC_HIGH 時,水位線的要求會降低原來的二分之一,相當於更近一步放款了記憶體分配的限制。比原來更加激進些。
在調整完水位線之後,還是一樣的邏輯,需要判斷當前可用剩餘記憶體容量是否在水位線之上,如果是,則水位線檢查完畢符合記憶體分配的要求。如果不是,則返回 false 不能進行記憶體分配。
// 記憶體的分配必須保證可用剩餘記憶體容量在指定水位線之上,否則不能進行記憶體分配
free_pages <= min + z->lowmem_reserve[highest_zoneidx])
在水位線 OK 之後,對於 order = 0 的記憶體分配情形下,就已經 OK 了,可以放心直接進行記憶體分配了。
但是對於 high-order 的記憶體分配情形,這裡還需要近一步檢查夥伴系統是否有足夠的空閒記憶體塊可以滿足本次 high-order 的記憶體分配。
根據本文 《3. 夥伴系統的記憶體分配原理》小節中,為大家介紹的夥伴系統記憶體分配原理,核心需要從當前分配階 order 開始一直向高階 free_area 中查詢對應的 free_list 中是否有足夠的記憶體塊滿足 order 階的記憶體分配要求。
如果有,那麼水位線相關的校驗工作到此結束,核心會直接去夥伴系統中申請 order 階的記憶體塊。
如果沒有,則水位線校驗失敗,夥伴系統無法滿足本次的記憶體分配要求。
經過 zone_watermark_ok 的校驗,現在記憶體水位線符合記憶體分配的要求,並且夥伴系統中有足夠的空閒記憶體塊可供記憶體分配申請,現在可以放心呼叫 rmqueue 函數進入夥伴系統進行記憶體分配了。
rmqueue 函數封裝的正是夥伴系統的核心邏輯,這一部分的原始碼實現筆者放在下一小節中介紹,這裡我們先關注記憶體分配成功之後,對於記憶體頁 page 的初始化邏輯。
當通過 rmqueue 函數從夥伴系統中成功申請到分配階為 order 大小的記憶體塊時,核心需要呼叫 prep_new_page 函數初始化這部分記憶體塊,之後才能返回給程序使用。
static void prep_new_page(struct page *page, unsigned int order, gfp_t gfp_flags,
unsigned int alloc_flags)
{
// 初始化 struct page,清除一些頁面屬性標記
post_alloc_hook(page, order, gfp_flags);
// 設定複合頁
if (order && (gfp_flags & __GFP_COMP))
prep_compound_page(page, order);
if (alloc_flags & ALLOC_NO_WATERMARKS)
// 使用 set_page_XXX(page) 方法設定 page 的 PG_XXX 標誌位
set_page_pfmemalloc(page);
else
// 使用 clear_page_XXX(page) 方法清除 page 的 PG_XXX 標誌位
clear_page_pfmemalloc(page);
}
由於現在我們拿到的 struct page 結構是剛剛從夥伴系統中申請出來的,裡面可能包含一些無用的標記(上一次被使用過的,還沒清理),所以需要將這些無用標記清理掉,並且在此基礎上根據 gfp_flags 掩碼對 struct page 進行初始化的準備工作。
比如通過 set_page_private 將 struct page 裡的 private 指標所指向的內容清空,private 指標在核心中的使用比較複雜,它會在不同場景下指向不同的內容。
set_page_private(page, 0);
將頁面的使用計數設定為 1 ,表示當前實體記憶體頁正在被使用。
set_page_refcounted(page);
如果 gfp_flags 掩碼中設定了 ___GFP_ZERO,這時就需要將這些 page 初始化為零頁。
由於初始化頁面的準備工作和本文的主線內容並沒有多大的關聯,所以筆者這裡只做簡單介紹,大家大概瞭解一下初始化做了哪些準備工作即可。
複合頁 compound_page 本質上就是通過兩個或者多個物理上連續的記憶體頁 page 組裝成的一個在邏輯上看起來比普通記憶體頁 page 更大的頁。它底層的依賴本質還是一個一個的普通記憶體頁 page。
我們都知道 Linux 管理記憶體的最小單位是 page,每個 page 描述 4K 大小的實體記憶體,但在一些核心使用場景中,比如 slab 記憶體池中,往往會向夥伴系統一次性申請多個普通記憶體頁 page,然後將這些記憶體頁 page 劃分為多個大小相同的小記憶體塊,這些小記憶體塊被 slab 記憶體池統一管理。
slab 記憶體池底層其實依賴的是多個普通記憶體頁,但是核心期望將這多個記憶體頁統一成一個邏輯上的記憶體頁來統一管理,這個邏輯上的記憶體頁就是本小節要介紹的複合頁。
而在 Linux 記憶體管理的架構中都是統一通過 struct page 來管理記憶體,複合頁卻是通過兩個或者多個物理上連續的記憶體頁 page 組裝成的一個邏輯頁,那麼複合頁的管理與普通頁的管理如何統一呢?
這就引出了本小節的主題——複合頁 compound_page,下面我們就來看下 Linux 如果通過統一的 struct page 結構來描述這些複合頁(compound_page):
雖然複合頁(compound_page)是由多個物理上連續的普通 page 組成的,但是在核心的視角里它還是被當做一個特殊記憶體頁來看待。
下圖所示,是由 4 個連續的普通記憶體頁 page 組成的一個 compound_page:
組成複合頁的第一個 page 我們稱之為首頁(Head Page),其餘的均稱之為尾頁(Tail Page)。
我們來看一下 struct page 中關於描述 compound_page 的相關欄位:
struct page {
// 首頁 page 中的 flags 會被設定為 PG_head 表示複合頁的第一頁
unsigned long flags;
// 其餘尾頁會通過該欄位指向首頁
unsigned long compound_head;
// 用於釋放複合頁的解構函式,儲存在首頁中
unsigned char compound_dtor;
// 該複合頁有多少個 page 組成,order 還是分配階的概念,在首頁中儲存
// 本例中的 order = 2 表示由 4 個普通頁組成
unsigned char compound_order;
// 該複合頁被多少個程序使用,記憶體頁反向對映的概念,首頁中儲存
atomic_t compound_mapcount;
// 複合頁使用計數,首頁中儲存
atomic_t compound_pincount;
}
首頁對應的 struct page 結構裡的 flags 會被設定為 PG_head,表示這是複合頁的第一頁。
另外首頁中還儲存關於複合頁的一些額外資訊,比如:
關於 struct page 的 flags 欄位的介紹,以及記憶體頁反向對映原理,大家可以回看下筆者 《深入理解 Linux 實體記憶體管理》中的 「 6.4 實體記憶體頁屬性和狀態的標誌位 flag 」 和 「 6.1 匿名頁的反向對映 」 小節。
複合頁中的所有尾頁都會通過其對應的 struct page 結構中的 compound_head 指向首頁,這樣通過首頁和尾頁就組裝成了一個完整的複合頁 compound_page 。
在我們理解了 compound_page 的組織結構之後,我們在回過頭來看 "6.3 記憶體分配成功之後初始化 page" 小節中的 prep_new_page 函數:
當核心向夥伴系統申請複合頁 compound_page 的時候,會在 gfp_flags 掩碼中設定 __GFP_COMP 標識,表次本次記憶體分配要分配一個複合頁,複合頁中的 page 個數由分配階 order 決定。
當核心向夥伴系統申請了 2 ^ order 個記憶體頁 page 時,大家注意在夥伴系統的視角中記憶體還是一頁一頁的,夥伴系統並不知道有複合頁的存在,當我們申請成功之後,需要在 prep_new_page 函數中將這 2 ^ order 個記憶體頁 page 按照前面介紹的邏輯組裝成一個 複合頁 compound_page。
void prep_compound_page(struct page *page, unsigned int order)
{
int i;
int nr_pages = 1 << order;
// 設定首頁 page 中的 flags 為 PG_head
__SetPageHead(page);
// 首頁之後的 page 全部是尾頁,迴圈遍歷設定尾頁
for (i = 1; i < nr_pages; i++)
prep_compound_tail(page, i);
// 最後設定首頁相關屬性
prep_compound_head(page, order);
}
static void prep_compound_tail(struct page *head, int tail_idx)
{
// 由於複合頁中的 page 全部是連續的,直接使用偏移即可獲得對應尾頁
struct page *p = head + tail_idx;
// 設定尾頁標識
p->mapping = TAIL_MAPPING;
// 尾頁 page 結構中的 compound_head 指向首頁
set_compound_head(p, head);
}
static __always_inline void set_compound_head(struct page *page, struct page *head)
{
WRITE_ONCE(page->compound_head, (unsigned long)head + 1);
}
static void prep_compound_head(struct page *page, unsigned int order)
{
// 設定首頁相關屬性
set_compound_page_dtor(page, COMPOUND_PAGE_DTOR);
set_compound_order(page, order);
atomic_set(compound_mapcount_ptr(page), -1);
atomic_set(compound_pincount_ptr(page), 0);
}
現在核心通過前邊介紹的 get_page_from_freelist 函數,迴圈遍歷 zonelist 終於找到了符合記憶體分配條件的實體記憶體區域 zone。接下來就會通過 rmqueue 函數進入到該實體記憶體區域 zone 對應的夥伴系統中實際分配實體記憶體。
/*
* Allocate a page from the given zone. Use pcplists for order-0 allocations.
*/
static inline
struct page *rmqueue(struct zone *preferred_zone,
struct zone *zone, unsigned int order,
gfp_t gfp_flags, unsigned int alloc_flags,
int migratetype)
{
unsigned long flags;
struct page *page;
if (likely(order == 0)) {
// 當我們申請一個物理頁面(order = 0)時,核心首先會從 CPU 快取記憶體列表 pcplist 中直接分配,而不會走夥伴系統,提高記憶體分配速度
page = rmqueue_pcplist(preferred_zone, zone, gfp_flags,
migratetype, alloc_flags);
goto out;
}
// 加鎖並關閉中斷,防止並行存取
spin_lock_irqsave(&zone->lock, flags);
// 當申請頁面超過一個 (order > 0)時,則從夥伴系統中進行分配
do {
page = NULL;
if (alloc_flags & ALLOC_HARDER) {
// 如果設定了 ALLOC_HARDER 分配策略,則從夥伴系統的 HIGHATOMIC 遷移型別的 freelist 中獲取
page = __rmqueue_smallest(zone, order, MIGRATE_HIGHATOMIC);
}
if (!page)
// 從夥伴系統中申請分配階 order 大小的實體記憶體塊
page = __rmqueue(zone, order, migratetype, alloc_flags);
} while (page && check_new_pages(page, order));
// 解鎖
spin_unlock(&zone->lock);
if (!page)
goto failed;
// 重新統計記憶體區域中的相關統計指標
zone_statistics(preferred_zone, zone);
// 開啟中斷
local_irq_restore(flags);
out:
return page;
failed:
// 分配失敗
local_irq_restore(flags);
return NULL;
}
核心對只分配一頁實體記憶體的情況做了特殊處理,當只請求一頁記憶體時,核心會藉助 CPU 快取記憶體冷熱頁列表 pcplist 加速記憶體分配的處理,此時分配的記憶體頁將來自於 pcplist 而不是夥伴系統。
pcp 是 per_cpu_pageset 的縮寫,核心會為每個 CPU 分配一個快取記憶體列表,關於這部分內容,筆者已經在 《深入理解 Linux 實體記憶體管理》一文中的 「 5.7 實體記憶體區域中的冷熱頁 」 小節非常詳細的為大家介紹過了,忘記的同學可以在回看下。
在 NUMA 記憶體架構下,每個實體記憶體區域都歸屬於一個特定的 NUMA 節點,NUMA 節點中包含了一個或者多個 CPU,NUMA 節點中的每個記憶體區域會關聯到一個特定的 CPU 上.
而每個 CPU 都有自己獨立的快取記憶體,所以每個 CPU 對應一個 per_cpu_pageset 結構,用於管理這個 CPU 快取記憶體中的冷熱頁。
所謂的熱頁就是已經載入進 CPU 快取記憶體中的實體記憶體頁,所謂的冷頁就是還未載入進 CPU 快取記憶體中的實體記憶體頁,冷頁是熱頁的後備選項
每個 CPU 都可以存取系統中的所有實體記憶體頁,儘管存取速度不同,因此特定的實體記憶體區域 struct zone 不僅要考慮到所屬 NUMA 節點中相關的 CPU,還需要照顧到系統中的其他 CPU。
在 Linux 核心中,系統會經常請求和釋放單個頁面。如果針對每個 CPU,都為其預先分配一個用於快取單個記憶體頁面的快取記憶體頁列表,用於滿足本地 CPU 發出的單頁記憶體請求,就能提升系統的效能。所以在 struct zone 結構中持有了系統中所有 CPU 的快取記憶體頁列表 per_cpu_pageset。
struct zone {
struct per_cpu_pages __percpu *per_cpu_pageset;
}
struct per_cpu_pages {
int count; /* pcplist 裡的頁面總數 */
int high; /* pcplist 裡的高水位線,count 超過 high 時,核心會釋放 batch 個頁面到夥伴系統中*/
int batch; /* pcplist 裡的頁面來自於夥伴系統,batch 定義了每次從夥伴系統獲取或者歸還多少個頁面*/
// CPU 快取記憶體列表 pcplist,每個遷移型別對應一個 pcplist
struct list_head lists[NR_PCP_LISTS];
};
當核心嘗試從 pcplist 中獲取一個實體記憶體頁時,會首先獲取執行當前程序的 CPU 對應的快取記憶體列表 pcplist。然後根據指定的具體頁面遷移型別 migratetype 獲取對應遷移型別的 pcplist。
當獲取到符合條件的 pcplist 之後,核心會呼叫 __rmqueue_pcplist 從 pcplist 中摘下一個實體記憶體頁返回。
/* Lock and remove page from the per-cpu list */
static struct page *rmqueue_pcplist(struct zone *preferred_zone,
struct zone *zone, gfp_t gfp_flags,
int migratetype, unsigned int alloc_flags)
{
struct per_cpu_pages *pcp;
struct list_head *list;
struct page *page;
unsigned long flags;
// 關閉中斷
local_irq_save(flags);
// 獲取執行當前程序的 CPU 快取記憶體列表 pcplist
pcp = &this_cpu_ptr(zone->pageset)->pcp;
// 獲取指定頁面遷移型別的 pcplist
list = &pcp->lists[migratetype];
// 從指定遷移型別的 pcplist 中移除一個頁面,用於記憶體分配
page = __rmqueue_pcplist(zone, migratetype, alloc_flags, pcp, list);
if (page) {
// 統計記憶體區域內的相關資訊
zone_statistics(preferred_zone, zone);
}
// 開中斷
local_irq_restore(flags);
return page;
}
pcplist 中快取的記憶體頁面其實全部來自於夥伴系統,當 pcplist 中的頁面數量 count 為 0 (表示此時 pcplist 裡沒有快取的頁面)時,核心會呼叫 rmqueue_bulk 從夥伴系統中獲取 batch 個物理頁面新增到 pcplist,從夥伴系統中獲取頁面的過程參照本文 "3. 夥伴系統的記憶體分配原理" 小節中的內容。
隨後核心會將 pcplist 中的第一個實體記憶體頁從連結串列中摘下返回,count 計數減一。
/* Remove page from the per-cpu list, caller must protect the list */
static struct page *__rmqueue_pcplist(struct zone *zone, int migratetype,
unsigned int alloc_flags,
struct per_cpu_pages *pcp,
struct list_head *list)
{
struct page *page;
do {
// 如果當前 pcplist 中的頁面為空,那麼則從夥伴系統中獲取 batch 個頁面放入 pcplist 中
if (list_empty(list)) {
pcp->count += rmqueue_bulk(zone, 0,
pcp->batch, list,
migratetype, alloc_flags);
if (unlikely(list_empty(list)))
return NULL;
}
// 獲取 pcplist 上的第一個物理頁面
page = list_first_entry(list, struct page, lru);
// 將該物理頁面從 pcplist 中摘除
list_del(&page->lru);
// pcplist 中的 count 減一
pcp->count--;
} while (check_new_pcp(page));
return page;
}
在本文 "3. 夥伴系統的記憶體分配原理" 小節中筆者詳細為大家介紹了夥伴系統的整個記憶體分配原理,那麼在本小節中,我們將正式進入夥伴系統中,來看下夥伴系統在核心中是如何實現的。
在前面介紹的 rmqueue 函數中,涉及到夥伴系統入口函數的有兩個:
__rmqueue_smallest 函數主要是封裝了整個夥伴系統關於記憶體分配的核心流程,該函數中的程式碼正是 「3. 夥伴系統的記憶體分配原理」 小節所講的核心內容。
__rmqueue 函數封裝的是夥伴系統的整個完整流程,底層呼叫了 __rmqueue_smallest 函數,它主要實現的是當夥伴系統 free_area 中對應的遷移列表 free_list[MIGRATE_TYPE] 無法滿足記憶體分配需求時, 記憶體分配在夥伴系統中的 fallback 流程。這一點筆者也在 「3. 夥伴系統的記憶體分配原理」 小節中詳細介紹過了。
當我們向核心申請的記憶體頁超過一頁(order > 0)時,核心就會進入夥伴系統中為我們申請記憶體。
如果記憶體分配策略 alloc_flags 指定了 ALLOC_HARDER 時,就會呼叫 __rmqueue_smallest 直接進入夥伴系統,從 free_list[MIGRATE_HIGHATOMIC] 連結串列中分配 order 大小的實體記憶體塊。
如果分配失敗或者 alloc_flags 沒有指定 ALLOC_HARDER 則會通過 __rmqueue 進入夥伴系統,這裡會處理分配失敗之後的 fallback 邏輯。
/*
* This array describes the order lists are fallen back to when
* the free lists for the desirable migrate type are depleted
*
* The other migratetypes do not have fallbacks.
*/
static int fallbacks[MIGRATE_TYPES][3] = {
[MIGRATE_UNMOVABLE] = { MIGRATE_RECLAIMABLE, MIGRATE_MOVABLE, MIGRATE_TYPES },
[MIGRATE_MOVABLE] = { MIGRATE_RECLAIMABLE, MIGRATE_UNMOVABLE, MIGRATE_TYPES },
[MIGRATE_RECLAIMABLE] = { MIGRATE_UNMOVABLE, MIGRATE_MOVABLE, MIGRATE_TYPES },
};
我們還是以 「3. 夥伴系統的記憶體分配原理」 小節中,介紹夥伴系統記憶體分配核心原理時,所舉的範例為大家剖析夥伴系統的核心原始碼實現。
假設當前夥伴系統中只有 order = 3 的空閒連結串列 free_area[3] ,其中只有一個空閒的記憶體塊,包含了連續的 8 個 page。其餘剩下的分配階 order 對應的空閒連結串列中均是空的。
現在我們向夥伴系統申請一個 page 大小的記憶體(對應的分配階 order = 0),經過前面的介紹我們知道當申請一個 page 大小的記憶體時,核心是從 pcplist 中進行分配的,但是這裡筆者為了方便給大家介紹夥伴系統,所以我們暫時讓它走夥伴系統的流程。
核心會在夥伴系統中從當前分配階 order 開始,依次遍歷 free_area[order] 裡對應的指定頁面遷移型別 free_list[MIGRATE_TYPE] 連結串列,直到找到一個合適尺寸的記憶體塊為止。
在本範例中,核心會在夥伴系統中首先檢視 order = 0 對應的空閒連結串列 free_area[0] 中是否有空閒記憶體塊可供分配。如果有,則將該空閒記憶體塊從 free_area[0] 摘下返回,記憶體分配成功。
如果沒有,隨後核心會根據前邊介紹的記憶體分配邏輯,繼續升級到 free_area[1] , free_area[2] 連結串列中尋找空閒記憶體塊,直到查詢到 free_area[3] 發現有一個可供分配的記憶體塊。這個記憶體塊中包含了 8 個連續的空閒 page,然後將這 8 個 連續的空閒 page 組成的記憶體塊依次進行減半分裂,將每次分裂出來的後半部分記憶體塊插入到對應尺寸的 free_area 中,如下圖所示:
/*
* Go through the free lists for the given migratetype and remove
* the smallest available page from the freelists
*/
static __always_inline
struct page *__rmqueue_smallest(struct zone *zone, unsigned int order,
int migratetype)
{
unsigned int current_order;
struct free_area *area;
struct page *page;
/* 從當前分配階 order 開始在夥伴系統對應的 free_area[order] 裡查詢合適尺寸的記憶體塊*/
for (current_order = order; current_order < MAX_ORDER; ++current_order) {
// 獲取當前 order 在夥伴系統中對應的 free_area[order]
// 對應上圖 free_area[3]
area = &(zone->free_area[current_order]);
// 從 free_area[order] 中對應的 free_list[MIGRATE_TYPE] 連結串列中獲取空閒記憶體塊
page = get_page_from_free_area(area, migratetype);
if (!page)
// 如果當前 free_area[order] 中沒有空閒記憶體塊則繼續向上查詢
// 對應上圖 free_area[0],free_area[1],free_area[2]
continue;
// 如果在當前 free_area[order] 中找到空閒記憶體塊,則從 free_list[MIGRATE_TYPE] 連結串列中摘除
// 對應上圖步驟 1:將記憶體塊從 free_area[3] 中摘除
del_page_from_free_area(page, area);
// 將摘下來的記憶體塊進行減半分裂並插入對應的尺寸的 free_area 中
// 對應上圖步驟 [2,3], [4,5], [6,7]
expand(zone, page, order, current_order, area, migratetype);
// 設定頁面的遷移型別
set_pcppage_migratetype(page, migratetype);
// 記憶體分配成功返回,對應上圖步驟 8
return page;
}
// 記憶體分配失敗返回 null
return NULL;
}
下面我們來看下減半分裂過程的實現,expand 函數中的引數在本節範例中:low = 指定分配階 order = 0,high = 最後遍歷到的分配階 order = 3。
static inline void expand(struct zone *zone, struct page *page,
int low, int high, struct free_area *area,
int migratetype)
{
// size = 8,表示當前要進行減半分裂的記憶體塊是由 8 個連續 page 組成的。
// 剛剛從 free_area[3] 上摘下
unsigned long size = 1 << high;
// 依次進行減半分裂,直到分裂出指定 order 的記憶體塊出來
// 對應上圖中的步驟 2,4,6
// 初始 high = 3 ,low = 0
while (high > low) {
// free_area 要降到下一階,此時變為 free_area[2]
area--;
// 分配階要降級 high = 2
high--;
// 記憶體塊尺寸要減半,由 8 變成 4,表示要分裂出由 4 個連續 page 組成的兩個記憶體塊。
// 參考上圖中的步驟 2
size >>= 1;
// 標記為保護頁,當其夥伴被釋放時,允許合併,參見 《4.夥伴系統的記憶體回收原理》小節
if (set_page_guard(zone, &page[size], high, migratetype))
continue;
// 將本次減半分裂出來的第二個記憶體塊插入到對應 free_area[high] 中
// 參見上圖步驟 3,5,7
add_to_free_area(&page[size], area, migratetype);
// 設定記憶體塊的分配階 high
set_page_order(&page[size], high);
// 本次分裂出來的第一個記憶體塊繼續迴圈進行減半分裂直到 high = low
// 即已經分裂出來了指定 order 尺寸的記憶體塊無需在進行分裂了,直接返回
// 參見上圖步驟 2,4,6
}
}
當我們向核心申請的記憶體頁面超過一頁(order > 0 ),並且記憶體分配策略 alloc_flags 中並沒有設定 ALLOC_HARDER 的時候,記憶體分配流程就會進入 __rmqueue 走常規的夥伴系統分配流程。
static __always_inline struct page *
__rmqueue(struct zone *zone, unsigned int order, int migratetype,
unsigned int alloc_flags)
{
struct page *page;
retry:
// 首先進入夥伴系統到指定頁面遷移型別的 free_list[migratetype] 獲取空閒記憶體塊
// 這裡走的就是上小節中介紹的夥伴系統核心流程
page = __rmqueue_smallest(zone, order, migratetype);
if (unlikely(!page)) {
..... 當夥伴系統中沒有足夠指定遷移型別 migratetype 的空閒記憶體塊時,就會進入這個分支 .....
// 如果遷移型別是 MIGRATE_MOVABLE 則優先 fallback 到 CMA 區中分配記憶體
if (migratetype == MIGRATE_MOVABLE)
page = __rmqueue_cma_fallback(zone, order);
// 走常規的夥伴系統 fallback 流程,核心原理參見《3.夥伴系統的記憶體分配原理》小節
if (!page && __rmqueue_fallback(zone, order, migratetype,
alloc_flags))
goto retry;
}
// 記憶體分配成功
return page;
}
從上述 __rmqueue 函數的原始碼實現中我們可以看出,該函數處理了夥伴系統記憶體分配的異常流程,即呼叫 __rmqueue_smallest 進入夥伴系統分配記憶體時,發現夥伴系統各個分配階 free_area[order] 中對應的遷移列表 free_list[MIGRATE_TYPE] 無法滿足記憶體分配需求時,__rmqueue_smallest 函數就會返回 null,夥伴系統記憶體分配失敗。
隨後核心就會進入夥伴系統的 fallback 流程,這裡對 MIGRATE_MOVABLE 遷移型別做了一下特殊處理,當夥伴系統中 free_list[MIGRATE_MOVABLE] 沒有足夠空閒記憶體塊時,會優先降級到 CMA 區域內進行分配。
static __always_inline struct page *__rmqueue_cma_fallback(struct zone *zone,
unsigned int order)
{
return __rmqueue_smallest(zone, order, MIGRATE_CMA);
}
如果我們指定的頁面遷移型別並非 MIGRATE_MOVABLE 或者降級 CMA 之後仍然分配失敗,核心就會進入 __rmqueue_fallback 走常規的 fallback 流程,該函數封裝的正是筆者在 「3. 夥伴系統的記憶體分配原理」 小節的後半部分介紹的 fallback 邏輯:
在 __rmqueue_fallback 函數中,核心會根據預先定義的相關 fallback 規則開啟記憶體分配的 fallback 流程。fallback 規則在核心中用一個 int 型別的二維陣列表示,其中第一維表示需要進行 fallback 的頁面遷移型別,第二維表示 fallback 的優先順序。後續核心會按照這個優先順序 fallback 到具體的 free_list[fallback_migratetype] 中去分配記憶體。
static int fallbacks[MIGRATE_TYPES][3] = {
[MIGRATE_UNMOVABLE] = { MIGRATE_RECLAIMABLE, MIGRATE_MOVABLE, MIGRATE_TYPES },
[MIGRATE_MOVABLE] = { MIGRATE_RECLAIMABLE, MIGRATE_UNMOVABLE, MIGRATE_TYPES },
[MIGRATE_RECLAIMABLE] = { MIGRATE_UNMOVABLE, MIGRATE_MOVABLE, MIGRATE_TYPES },
};
比如:MIGRATE_UNMOVABLE 型別的 free_list 記憶體不足時,核心會 fallback 到 MIGRATE_RECLAIMABLE 中去獲取,如果還是不足,則再次降級到 MIGRATE_MOVABLE 中獲取,如果仍然無法滿足記憶體分配,才會失敗退出。
static __always_inline bool
__rmqueue_fallback(struct zone *zone, int order, int start_migratetype,
unsigned int alloc_flags)
{
// 最終會 fall back 到夥伴系統的哪個 free_area 中分配記憶體
struct free_area *area;
// fallback 和正常的分配流程正好相反,是從最高階的free_area[MAX_ORDER - 1] 開始查詢空閒記憶體塊
int current_order;
// 最初指定的記憶體分配階
int min_order = order;
struct page *page;
// 最終計算出 fallback 到哪個頁面遷移型別 free_list 上
int fallback_mt;
// 是否可以從 free_list[fallback] 中竊取記憶體塊到 free_list[start_migratetype] 中
// start_migratetype 表示我們最初指定的頁面遷移型別
bool can_steal;
// 如果設定了 ALLOC_NOFRAGMENT 表示不希望引入記憶體碎片
// 在這種情況下核心會更加傾向於分配一個儘可能大的記憶體塊,避免向其他連結串列引入記憶體碎片
if (alloc_flags & ALLOC_NOFRAGMENT)
// pageblock_order 用於定義系統支援的巨型頁對應的分配階
// 預設為最大分配階 - 1 = 9
min_order = pageblock_order;
// fallback 記憶體分配流程從最高階 free_area 開始查詢空閒記憶體塊(頁面遷移型別為 fallback 型別)
for (current_order = MAX_ORDER - 1; current_order >= min_order;
--current_order) {
// 獲取夥伴系統中最高階的 free_area
area = &(zone->free_area[current_order]);
// 按照上述的記憶體分配 fallback 規則查詢最合適的 fallback 遷移型別
fallback_mt = find_suitable_fallback(area, current_order,
start_migratetype, false, &can_steal);
// 如果沒有合適的 fallback_mt,則繼續降級到下一個分配階 free_area 中查詢
if (fallback_mt == -1)
continue;
// can_steal 會在 find_suitable_fallback 的過程中被設定
// 當我們指定的頁面遷移型別為 MIGRATE_MOVABLE 並且無法從其他 fallback 遷移型別列表中竊取頁面 can_steal = false 時
// 核心會更加傾向於 fallback 分配最小的可用頁面,即尺寸和指定order最接近的頁面數量而不是尺寸最大的
// 因為這裡的條件是分配可移動的頁面型別,天然可以避免永久記憶體碎片,無需按照最大的尺寸分配
if (!can_steal && start_migratetype == MIGRATE_MOVABLE
&& current_order > order)
goto find_smallest;
// can_steal = true,則開始從 free_list[fallback] 列表中竊取頁面
goto do_steal;
}
return false;
find_smallest:
// 該分支目的在於尋找尺寸最貼近指定 order 大小的最小可用頁面
// 從指定 order 開始 fallback
for (current_order = order; current_order < MAX_ORDER;
current_order++) {
area = &(zone->free_area[current_order]);
fallback_mt = find_suitable_fallback(area, current_order,
start_migratetype, false, &can_steal);
if (fallback_mt != -1)
break;
}
do_steal:
// 從上述流程獲取到的夥伴系統 free_area 中獲取 free_list[fallback_mt]
page = get_page_from_free_area(area, fallback_mt);
// 從 free_list[fallback_mt] 中竊取頁面到 free_list[start_migratetype] 中
steal_suitable_fallback(zone, page, alloc_flags, start_migratetype,
can_steal);
// 返回到 __rmqueue 函數中進行 retry 重試流程,此時 free_list[start_migratetype] 中已經有足夠的記憶體頁面可供分配了
return true;
}
從上述記憶體分配 fallback 原始碼實現中,我們可以看出記憶體分配 fallback 流程正好和正常的分配流程相反:
夥伴系統正常記憶體分配流程先是從低階到高階依次查詢空閒記憶體塊,然後將高階中的記憶體塊依次減半分裂到低階 free_list 連結串列中。
夥伴系統 fallback 記憶體分配流程則是先從最高階開始查詢,找到一塊空閒記憶體塊之後,先遷移到最初指定的 free_list[start_migratetype] 連結串列中,然後在指定的 free_list[start_migratetype] 連結串列中執行減半分裂。
本小節我們來看下核心定義的 fallback 規則具體的流程實現,fallback 規則定義如下,筆者在之前的章節中已經多次提到過了,這裡不在重複解釋,我們重點關注它的 fallback 流程實現。
static int fallbacks[MIGRATE_TYPES][3] = {
[MIGRATE_UNMOVABLE] = { MIGRATE_RECLAIMABLE, MIGRATE_MOVABLE, MIGRATE_TYPES },
[MIGRATE_MOVABLE] = { MIGRATE_RECLAIMABLE, MIGRATE_UNMOVABLE, MIGRATE_TYPES },
[MIGRATE_RECLAIMABLE] = { MIGRATE_UNMOVABLE, MIGRATE_MOVABLE, MIGRATE_TYPES },
};
find_suitable_fallback 函數中封裝了頁面遷移型別整個的 fallback 過程:
fallback 規則定義在 fallbacks[MIGRATE_TYPES][3] 二維陣列中,第一維表示要進行 fallback 的頁面遷移型別 migratetype。第二維 migratetype 遷移型別可以 fallback 到哪些遷移型別中,這些可以 fallback 的頁面遷移型別按照優先順序排列。
該函數的核心邏輯是在 for (i = 0;; i++)
迴圈中按照 fallbacks[migratetype][i] 陣列定義的 fallback 優先順序,依次在 free_area[order] 中對應的 free_list[fallback] 列表中查詢是否有空閒的記憶體塊。
int find_suitable_fallback(struct free_area *area, unsigned int order,
int migratetype, bool only_stealable, bool *can_steal)
{
int i;
// 最終選取的 fallback 頁面遷移型別
int fallback_mt;
// 當前 free_area[order] 中以無空閒頁面,則返回失敗
if (area->nr_free == 0)
return -1;
*can_steal = false;
// 按照 fallback 優先順序,迴圈在 free_list[fallback] 中查詢是否有空閒記憶體塊
for (i = 0;; i++) {
// 按照優先順序獲取 fallback 頁面遷移型別
fallback_mt = fallbacks[migratetype][i];
if (fallback_mt == MIGRATE_TYPES)
break;
// 如果當前 free_list[fallback] 為空則繼續迴圈降級查詢
if (free_area_empty(area, fallback_mt))
continue;
// 判斷是否可以從 free_list[fallback] 竊取頁面到指定 free_list[migratetype] 中
if (can_steal_fallback(order, migratetype))
*can_steal = true;
if (!only_stealable)
return fallback_mt;
if (*can_steal)
return fallback_mt;
}
return -1;
}
// 這裡竊取頁面的目的是從 fallback 型別的 freelist 中拿到一個高階的大記憶體塊
// 之所以要竊取儘可能大的記憶體塊是為了避免引入記憶體碎片
// 但 MIGRATE_MOVABLE 型別的頁面本身就可以避免永久記憶體碎片
// 所以 fallback MIGRATE_MOVABLE 型別的頁面時,會跳轉到 find_smallest 分支只需要選擇一個合適的 fallback 記憶體塊即可
static bool can_steal_fallback(unsigned int order, int start_mt)
{
if (order >= pageblock_order)
return true;
if (order >= pageblock_order / 2 ||
start_mt == MIGRATE_RECLAIMABLE ||
start_mt == MIGRATE_UNMOVABLE ||
page_group_by_mobility_disabled)
return true;
// 跳轉到 find_smallest 分支選擇一個合適的 fallback 記憶體塊
return false;
}
can_steal_fallback 函數中定義了是否可以從 free_list[fallback] 竊取頁面到指定 free_list[migratetype] 中,邏輯如下:
cat /proc/pagetypeinfo
命令檢視。如果我們指定的頁面遷移型別為 MIGRATE_RECLAIMABLE 或者 MIGRATE_UNMOVABLE,則不管我們要申請的頁面尺寸有多大,核心都會允許竊取頁面 can_steal = true ,因為它們最終會 fallback 到 MIGRATE_MOVABLE 可移動頁面型別中,這樣造成記憶體碎片的情況會少一些。
當核心全域性變數 page_group_by_mobility_disabled 設定為 1 時,則所有實體記憶體頁面都是不可移動的,這時核心也允許竊取頁面。
在系統初始化期間,所有頁都被標記為 MIGRATE_MOVABLE 可移動的頁面型別,其他的頁面遷移型別都是後來通過 __rmqueue_fallback 竊取產生的。而是否能夠竊取 fallback 遷移型別列表中的頁面,就是本小節介紹的內容。
在 《深入理解 Linux 實體記憶體分配全鏈路實現》 中的 「1. 核心實體記憶體分配介面」 小節中我們介紹了核心分配實體記憶體的相關介面:
struct page *alloc_pages(gfp_t gfp, unsigned int order)
unsigned long __get_free_pages(gfp_t gfp_mask, unsigned int order)
unsigned long get_zeroed_page(gfp_t gfp_mask)
unsigned long __get_dma_pages(gfp_t gfp_mask, unsigned int order)
核心釋放實體記憶體的相關介面,這也是本小節的重點:
void __free_pages(struct page *page, unsigned int order);
void free_pages(unsigned long addr, unsigned int order);
void __free_pages(struct page *page, unsigned int order)
{
if (put_page_testzero(page))
free_the_page(page, order);
}
void free_pages(unsigned long addr, unsigned int order)
{
if (addr != 0) {
// 校驗虛擬記憶體地址 addr 的有效性
VM_BUG_ON(!virt_addr_valid((void *)addr));
// 將虛擬記憶體地址 addr 轉換為 page,最終還是呼叫 __free_pages
__free_pages(virt_to_page((void *)addr), order);
}
}
在我們釋放記憶體時需要非常謹慎小心,只能釋放屬於你自己的頁,傳遞了錯誤的 struct page 指標或者錯誤的虛擬記憶體地址,或者傳遞錯了 order 值都可能會導致系統的崩潰。在核心空間中,核心是完全信賴自己的,這點和使用者空間不同。
另外核心也提供了 __free_page 和 free_page 兩個宏,專門用於釋放單個實體記憶體頁。
#define __free_page(page) __free_pages((page), 0)
#define free_page(addr) free_pages((addr), 0)
我們可以看出無論是核心定義的這些用於釋放記憶體的宏或是輔助函數,它們最終會呼叫 __free_pages,這裡正是釋放記憶體的核心所在。
static inline void free_the_page(struct page *page, unsigned int order)
{
if (order == 0)
// 如果釋放一頁的話,則直接釋放到 CPU 快取記憶體列表 pcplist 中
free_unref_page(page);
else
// 如果釋放多頁的話,則進入夥伴系統回收這部分記憶體
__free_pages_ok(page, order);
}
從這裡我們看到夥伴系統回收記憶體的流程和夥伴系統分配記憶體的流程是一樣的,在最開始首先都會檢查本次釋放或者分配的是否只是一個實體記憶體頁(order = 0),如果是則直接釋放到 CPU 快取記憶體列表 pcplist 中。如果不是則將記憶體釋放回夥伴系統中。
struct zone {
struct per_cpu_pages __percpu *per_cpu_pageset;
}
struct per_cpu_pages {
int count; /* pcplist 裡的頁面總數 */
int high; /* pcplist 裡的高水位線,count 超過 high 時,核心會釋放 batch 個頁面到夥伴系統中*/
int batch; /* pcplist 裡的頁面來自於夥伴系統,batch 定義了每次從夥伴系統獲取或者歸還多少個頁面*/
// CPU 快取記憶體列表 pcplist,每個遷移型別對應一個 pcplist
struct list_head lists[NR_PCP_LISTS];
};
/*
* Free a 0-order page
*/
void free_unref_page(struct page *page)
{
unsigned long flags;
// 獲取要釋放的實體記憶體頁對應的物理頁號 pfn
unsigned long pfn = page_to_pfn(page);
// 關閉中斷
local_irq_save(flags);
// 釋放實體記憶體頁至 pcplist 中
free_unref_page_commit(page, pfn);
// 開啟中斷
local_irq_restore(flags);
}
首先核心會通過 page_to_pfn 函數獲取要釋放記憶體頁對應的物理頁號,而物理頁號 pfn 的計算邏輯會根據記憶體模型的不同而不同,關於 page_to_pfn 在不同記憶體模型下的計算邏輯,大家可以回看下筆者之前文章 《深入理解 Linux 實體記憶體管理》中的 「 2. 從 CPU 角度看實體記憶體模型 」 小節。
最後通過 free_unref_page_commit 函數將記憶體頁釋放至 CPU 快取記憶體列表 pcplist 中,這裡大家需要注意的是在釋放的過程中是不會響應中斷的。
static void free_unref_page_commit(struct page *page, unsigned long pfn)
{
// 獲取記憶體頁所在實體記憶體區域 zone
struct zone *zone = page_zone(page);
// 執行當前程序的 CPU 快取記憶體列表 pcplist
struct per_cpu_pages *pcp;
// 頁面的遷移型別
int migratetype;
migratetype = get_pcppage_migratetype(page);
// 核心這裡只會將 UNMOVABLE,MOVABLE,RECLAIMABLE 這三種頁面遷移型別放入 pcplist 中,其餘的遷移型別均釋放回夥伴系統
if (migratetype >= MIGRATE_PCPTYPES) {
if (unlikely(is_migrate_isolate(migratetype))) {
// 釋放回夥伴系統
free_one_page(zone, page, pfn, 0, migratetype);
return;
}
// 核心這裡會將 HIGHATOMIC 型別頁面當做 MIGRATE_MOVABLE 型別處理
migratetype = MIGRATE_MOVABLE;
}
// 獲取執行當前程序的 CPU 快取記憶體列表 pcplist
pcp = &this_cpu_ptr(zone->pageset)->pcp;
// 將要釋放的實體記憶體頁新增到 pcplist 中
list_add(&page->lru, &pcp->lists[migratetype]);
// pcplist 頁面計數加一
pcp->count++;
// 如果 pcp 中的頁面總數超過了 high 水位線,則將 pcp 中的 batch 個頁面釋放回夥伴系統中
if (pcp->count >= pcp->high) {
unsigned long batch = READ_ONCE(pcp->batch);
// 釋放 batch 個頁面回夥伴系統中
free_pcppages_bulk(zone, batch, pcp);
}
}
這裡筆者需要強調的是,核心只會將 UNMOVABLE,MOVABLE,RECLAIMABLE 這三種頁面遷移型別放入 CPU 快取記憶體列表 pcplist 中,其餘的遷移型別均需釋放回夥伴系統。
enum migratetype {
MIGRATE_UNMOVABLE, // 不可移動
MIGRATE_MOVABLE, // 可移動
MIGRATE_RECLAIMABLE, // 可回收
MIGRATE_PCPTYPES, // 屬於 CPU 快取記憶體中的型別,PCP 是 per_cpu_pageset 的縮寫
MIGRATE_HIGHATOMIC = MIGRATE_PCPTYPES, // 緊急記憶體
#ifdef CONFIG_CMA
MIGRATE_CMA, // 預留的連續記憶體 CMA
#endif
#ifdef CONFIG_MEMORY_ISOLATION
MIGRATE_ISOLATE, /* can't allocate from here */
#endif
MIGRATE_TYPES // 不代表任何區域,只是單純的標識遷移型別這個列舉
};
關於頁面遷移型別的介紹,可回看本文 "1. 夥伴系統的核心資料結構" 小節的內容。
通過 this_cpu_ptr
獲取執行當前程序的 CPU 快取記憶體列表 pcplist,然後將要釋放的實體記憶體頁新增到對應遷移型別的 pcp->lists[migratetype]。
在 CPU 快取記憶體列表 per_cpu_pages 中,每個遷移型別對應一個 pcplist 。
如果當前 pcplist 中的頁面數量 count 超過了規定的水位線 high 的值,說明現在 pcplist 中的頁面太多了,需要從 pcplist 中釋放 batch 個物理頁面到夥伴系統中。這個過程稱之為惰性合併。
根據本文 "4. 夥伴系統的記憶體回收原理" 小節介紹的內容,我們知道,單記憶體頁直接釋放回夥伴系統會發生很多合併的動作,這裡的惰性合併策略阻止了大量的無效合併操作。
當我們要釋放的記憶體頁超過一頁(order > 0 )時,核心會將這些記憶體頁回收至夥伴系統中,釋放記憶體時夥伴系統的入口函數為 __free_pages_ok:
static void __free_pages_ok(struct page *page, unsigned int order)
{
unsigned long flags;
int migratetype;
// 獲取釋放記憶體頁對應的物理頁號 pfn
unsigned long pfn = page_to_pfn(page);
// 在將記憶體頁回收至夥伴系統之前,需要將記憶體頁 page 相關的無用屬性清理一下
if (!free_pages_prepare(page, order, true))
return;
// 獲取頁面遷移型別,後續會將記憶體頁釋放至夥伴系統中的 free_list[migratetype] 中
migratetype = get_pfnblock_migratetype(page, pfn);
// 關中斷
local_irq_save(flags);
// 進入夥伴系統,釋放記憶體
free_one_page(page_zone(page), page, pfn, order, migratetype);
// 開中斷
local_irq_restore(flags);
}
__free_pages_ok 函數的邏輯比較容易理解,核心就是在將記憶體頁回收至夥伴系統之前,需要將這些記憶體頁的 page 結構清理一下,將無用的屬性至空,將清理之後乾淨的 page 結構回收至夥伴系統中。這裡大家需要注意的是在夥伴系統回收記憶體的時候也是不響應中斷的。
static void free_one_page(struct zone *zone,
struct page *page, unsigned long pfn,
unsigned int order,
int migratetype)
{
// 加鎖
spin_lock(&zone->lock);
// 正式進入夥伴系統回收記憶體,《4.夥伴系統的記憶體回收原理》小節介紹的邏輯全部封裝在這裡
__free_one_page(page, pfn, zone, order, migratetype);
// 釋放鎖
spin_unlock(&zone->lock);
}
之前我們在 "4. 夥伴系統的記憶體回收原理" 小節中介紹的夥伴系統記憶體回收的全部邏輯就封裝在 __free_one_page 函數中,筆者這裡建議大家在看下面相關原始碼實現的內容之前再去回顧下 5.3 小節的內容。
下面我們還是以 5.3 小節中所舉的具體例子來剖析核心如何將記憶體釋放回夥伴系統中的完整實現過程。
在開始之前,筆者還是先把當前夥伴系統中空閒記憶體頁的真實物理檢視給大家貼出來方便大家對比,後面在查詢需要合併的夥伴的時候需要拿這張圖來做對比才能清晰的理解:
以下是系統中空閒記憶體頁在當前夥伴系統中的組織檢視,現在我們需要將 page10 釋放回夥伴系統中:
經過 「4. 夥伴系統的記憶體回收原理」 小節的內容介紹我們知道,在將記憶體塊釋放回夥伴系統時,核心需要從記憶體塊的當前階(本例中 order = 0)開始在夥伴系統 free_area[order] 中查詢能夠合併的夥伴。
夥伴的定義筆者已經在 「2. 到底什麼是夥伴」 小節中詳細為大家介紹過了,夥伴的核心就是兩個尺寸大小相同並且在物理上連續的兩個空閒記憶體塊,記憶體塊可以由一個實體記憶體頁組成的也可以是由多個實體記憶體頁組成的。
如果在當前階 free_area[order] 中找到了夥伴,則將釋放的記憶體塊和它的夥伴記憶體塊兩兩合併成一個新的記憶體塊,隨後繼續到高階中去查詢新記憶體塊的夥伴,直到沒有夥伴可以合併為止。
/*
* Freeing function for a buddy system allocator.
*/
static inline void __free_one_page(struct page *page,
unsigned long pfn,
struct zone *zone, unsigned int order,
int migratetype)
{
// 釋放記憶體塊與其夥伴記憶體塊合併之後新記憶體塊的 pfn
unsigned long combined_pfn;
// 夥伴記憶體塊的 pfn
unsigned long uninitialized_var(buddy_pfn);
// 夥伴記憶體塊的首頁 page 指標
struct page *buddy;
// 夥伴系統中的最大分配階
unsigned int max_order;
continue_merging:
// 從釋放記憶體塊的當前分配階開始一直向高階合併記憶體塊,直到不能合併為止
// 在本例中當前分配階 order = 0,我們要釋放 page10
while (order < max_order - 1) {
// 在 free_area[order] 中查詢夥伴記憶體塊的 pfn
// 上圖步驟一中夥伴的 pfn 為 11
// 上圖步驟二中夥伴的 pfn 為 8
// 上圖步驟三中夥伴的 pfn 為 12
buddy_pfn = __find_buddy_pfn(pfn, order);
// 根據偏移 buddy_pfn - pfn 計算夥伴記憶體塊中的首頁 page 地址
// 步驟一夥伴首頁為 page11,步驟二夥伴首頁為 page8,步驟三夥伴首頁為 page12
buddy = page + (buddy_pfn - pfn);
// 檢查夥伴 pfn 的有效性
if (!pfn_valid_within(buddy_pfn))
// 無效停止合併
goto done_merging;
// 按照前面介紹的夥伴定義檢查是否為夥伴
if (!page_is_buddy(page, buddy, order))
// 不是夥伴停止合併
goto done_merging;
// 將夥伴記憶體塊從當前 free_area[order] 列表中摘下,對比步驟一到步驟四
del_page_from_free_area(buddy, &zone->free_area[order]);
// 合併後新記憶體塊首頁 page 的 pfn
combined_pfn = buddy_pfn & pfn;
// 合併後新記憶體塊首頁 page 指標
page = page + (combined_pfn - pfn);
// 以合併後的新記憶體塊為基礎繼續向高階 free_area 合併
pfn = combined_pfn;
// 繼續向高階 free_area 合併,直到不能合併為止
order++;
}
done_merging:
// 表示在當前夥伴系統 free_area[order] 中沒有找到夥伴記憶體塊,停止合併
// 設定記憶體塊的分配階 order,儲存在第一個 page 結構中的 private 屬性中
set_page_order(page, order);
// 將最終合併的記憶體塊插入到夥伴系統對應的 free_are[order] 中,上圖中步驟五
add_to_free_area(page, &zone->free_area[order], migratetype);
}
根據上圖展示的在記憶體釋放過程中被釋放記憶體塊從當前階 free_area[order] 開始查詢其夥伴並依次向高階 free_area 合併的過程以及結合筆者原始碼中提供的詳細註釋,整個記憶體釋放的過程還是不難理解的。
這裡筆者想重點來講的是,核心如何在 free_area 連結串列中查詢夥伴記憶體塊,以及如何判斷兩個記憶體塊是否為夥伴關係。下面我們來一起看下這部分內容:
static inline unsigned long
__find_buddy_pfn(unsigned long page_pfn, unsigned int order)
{
return page_pfn ^ (1 << order);
}
核心會通過 __find_buddy_pfn 函數根據當前釋放記憶體塊的 pfn,以及當前釋放記憶體塊的分配階 order 來確定其夥伴記憶體塊的 pfn。
首先通過 1 << order
左移操作確定要查詢夥伴記憶體塊的分配階,因為夥伴關係最重要的一點就是它們必須是大小相等的兩個記憶體塊。然後巧妙地通過與要釋放記憶體塊的 pfn 進行互斥或操作就得到了夥伴記憶體塊的 pfn 。
另外一個重要的輔助函數就是 page_is_buddy,核心通過該函數來判斷給定兩個記憶體塊是否為夥伴關係。筆者在 "2. 到底什麼是夥伴" 小節中明確的給出了夥伴的定義,page_is_buddy 就是相關的核心實現:
夥伴系統所管理的記憶體頁必須是可用的,不能處於記憶體空洞中,通過 page_is_guard 函數判斷。
夥伴必須是空閒的記憶體塊,這些記憶體塊必須存在於夥伴系統中,組成記憶體塊的記憶體頁 page 結構中的 flag 標誌設定了 PG_buddy 標記。通過 PageBuddy 判斷這些記憶體頁是否在夥伴系統中。
兩個互為夥伴的記憶體塊必須擁有相同的分配階 order,也就是它們之間的大小尺寸必須一致。通過 page_order(buddy) == order
判斷
互為夥伴關係的記憶體塊必須處於相同的實體記憶體區域 zone 中。通過 page_zone_id(page) == page_zone_id(buddy)
判斷。
同時滿足上述四點的兩個記憶體塊即為夥伴關係,下面是核心中關於判斷是否為夥伴關係的原始碼實現:
static inline int page_is_buddy(struct page *page, struct page *buddy,
unsigned int order)
{
if (page_is_guard(buddy) && page_order(buddy) == order) {
if (page_zone_id(page) != page_zone_id(buddy))
return 0;
return 1;
}
if (PageBuddy(buddy) && page_order(buddy) == order) {
if (page_zone_id(page) != page_zone_id(buddy))
return 0;
return 1;
}
return 0;
}
在本文的開頭,筆者首先為大家介紹了夥伴系統的核心資料結構,目的是在介紹核心原理之前,先為大家構建起夥伴系統的整個骨架。從整體上先認識一下夥伴系統的全域性樣貌。
然後又為大家闡述了夥伴系統中的這個夥伴到底是什麼概念 ,以及如何通過 __find_buddy_pfn 來查詢記憶體塊的夥伴。如果通過 page_is_buddy 來判斷兩個記憶體塊是否為夥伴關係。
在我們明白了夥伴系統的這些基本概念以及全域性框架結構之後,筆者詳細剖析了夥伴系統的記憶體分配原理及其實現,其中重點著墨了從高階 freelist 連結串列到低階 freelist 連結串列的減半分裂過程實現,以及記憶體分配失敗之後,夥伴系統的 fallback 過程實現。
最後又詳細剖析了夥伴系統記憶體回收的原理以及實現,其中重點著墨了從低階 freelist 到高階 freelist 的合併過程。
好了,到這裡關於夥伴系統的全部內容就結束了,感謝大家的收看,我們下篇文章見~~~