本文將介紹 Go 語言中的 sync.Pool
並行原語,包括sync.Pool
的基本使用方法、使用注意事項等的內容。能夠更好得使用sync.Pool
來減少物件的重複建立,最大限度實現物件的重複使用,減少程式GC的壓力,以及提升程式的效能。
這裡我們實現一個簡單的JSON序列化器,能夠實現將一個map[string]int
序列化為一個JSON字串,實現如下:
func IntToStringMap(m map[string]int) (string, error) {
// 定義一個bytes.Buffer,用於快取資料
var buf bytes.Buffer
buf.Write([]byte("{"))
for k, v := range m {
buf.WriteString(fmt.Sprintf(`"%s":%d,`, k, v))
}
if len(m) > 0 {
buf.Truncate(buf.Len() - 1) // 去掉最後一個逗號
}
buf.Write([]byte("}"))
return buf.String(), nil
}
這裡使用bytes.Buffer
來快取資料,然後按照key:value
的形式,將資料生成一個字串,然後返回,實現是比較簡單的。
每次呼叫IntToStringMap
方法時,都會建立一個bytes.Buffer
來快取中間結果,而bytes.Buffer
其實是可以被重用的,因為序列化規則和其並沒有太大的關係,其只是作為一個快取區來使用而已。
但是當前的實現為每次呼叫IntToStringMap
時,都會建立一個bytes.Buffer
,如果在一個應用中,請求並行量非常高時,頻繁建立和銷燬bytes.Buffer
將會帶來較大的效能開銷,會導致物件的頻繁分配和垃圾回收,增加了記憶體使用量和垃圾回收的壓力。
那有什麼方法能夠讓bytes.Buffer
能夠最大程度得被重複利用呢,避免重複的建立和回收呢?
其實我們可以發現,為了讓bytes.Buffer
能夠被重複利用,避免重複的建立和回收,我們此時只需要將bytes.Buffer
快取起來,在需要時,將其從快取中取出;當用完後,便又將其放回到快取池當中。這樣子,便不需要每次呼叫IntToStringMap
方法時,就建立一個bytes.Buffer
。
這裡我們可以自己實現一個快取池,當需要物件時,可以從快取池中獲取,當不需要物件時,可以將物件放回快取池中。IntToStringMap
方法需要bytes.Buffer
時,便從該快取池中取,當用完後,便重新放回快取池中,等待下一次的獲取。下面是一個使用切片實現的一個bytes.Buffer
快取池。
type BytesBufferPool struct {
mu sync.Mutex
pool []*bytes.Buffer
}
func (p *BytesBufferPool) Get() *bytes.Buffer {
p.mu.Lock()
defer p.mu.Unlock()
n := len(p.pool)
if n == 0 {
// 當快取池中沒有物件時,建立一個bytes.Buffer
return &bytes.Buffer{}
}
// 有物件時,取出切片最後一個元素返回
v := p.pool[n-1]
p.pool[n-1] = nil
p.pool = p.pool[:n-1]
return v
}
func (p *BytesBufferPool) Put(buffer *bytes.Buffer) {
if buffer == nil {
return
}
// 將bytes.Buffer放入到切片當中
p.mu.Lock()
defer p.mu.Unlock()
obj.Reset()
p.pool = append(p.pool, buffer)
}
上面BytesBufferPool
實現了一個bytes.Buffer
的快取池,其中Get
方法用於從快取池中取物件,如果沒有物件,就建立一個新的物件返回;Put
方法用於將物件重新放入BytesBufferPool
當中,下面使用BytesBufferPool
來優化IntToStringMap
。
// 首先定義一個BytesBufferPool
var buffers BytesBufferPool
func IntToStringMap(m map[string]int) (string, error) {
// bytes.Buffer不再自己建立,而是從BytesBufferPool中取出
buf := buffers.Get()
// 函數結束後,將bytes.Buffer重新放回快取池當中
defer buffers.Put(buf)
buf.Write([]byte("{"))
for k, v := range m {
buf.WriteString(fmt.Sprintf(`"%s":%d,`, k, v))
}
if len(m) > 0 {
buf.Truncate(buf.Len() - 1) // 去掉最後一個逗號
}
buf.Write([]byte("}"))
return buf.String(), nil
}
到這裡我們通過自己實現了一個快取池,成功對InitToStringMap
函數進行了優化,減少了bytes.Buffer
物件頻繁的建立和回收,在一定程度上提高了物件的頻繁建立和回收。
但是,BytesBufferPool
這個快取池的實現,其實存在幾點問題,其一,只能用於快取bytes.Buffer
物件;其二,不能根據系統的實際情況,動態調整物件池中快取物件的數量。假如某段時間並行量較高,bytes.Buffer
物件被大量建立,用完後,重新放回BytesBufferPool
之後,將永遠不會被回收,這有可能導致記憶體浪費,嚴重一點,也會導致記憶體漏失。
既然自定義快取池存在這些問題,那我們不禁要問,Go語言標準庫中有沒有提供了更方便的方式,來幫助我們快取物件呢?
別說,還真有,Go標準庫提供了sync.Pool
,可以用來快取那些需要頻繁建立和銷燬的物件,而且它支援快取任何型別的物件,同時sync.Pool
是可以根據系統的實際情況來調整快取池中物件的數量,如果一個物件長時間未被使用,此時將會被回收掉。
相對於自己實現的緩衝池,sync.Pool
的效能更高,充分利用多核cpu的能力,同時也能夠根據系統當前使用物件的負載,來動態調整緩衝池中物件的數量,而且使用起來也比較簡單,可以說是實現無狀態物件快取池的不二之選。
下面我們來看看sync.Pool
的基本使用方式,然後將其應用到IntToStringMap
方法的實現當中。
sync.Pool
的定義如下: 提供了Get
,Put
兩個方法:
type Pool struct {
noCopy noCopy
local unsafe.Pointer // local fixed-size per-P pool, actual type is [P]poolLocal
localSize uintptr // size of the local array
victim unsafe.Pointer // local from previous cycle
victimSize uintptr // size of victims array
New func() any
}
func (p *Pool) Put(x any) {}
func (p *Pool) Get() any {}
Get
方法: 從sync.Pool
中取出快取物件Put
方法: 將快取物件放入到sync.Pool
當中New
函數: 在建立sync.Pool
時,需要傳入一個New
函數,當Get
方法獲取不到物件時,此時將會呼叫New
函數建立新的物件返回。當使用sync.Pool
時,通常需要以下幾個步驟:
sync.Pool
定義一個物件緩衝池下面是一個簡單的程式碼的範例,展示了使用sync.Pool
大概的程式碼結構:
type struct data{
// 定義一些屬性
}
//1. 建立一個data物件的快取池
var dataPool = sync.Pool{New: func() interface{} {
return &data{}
}}
func Operation_A(){
// 2. 需要用到data物件的地方,從快取池中取出
d := dataPool.Get().(*data)
// 執行後續操作
// 3. 將物件重新放入快取池中
dataPool.Put(d)
}
下面我們使用sync.Pool
來對IntToStringMap
進行改造,實現對bytes.Buffer
物件的重用,同時也能夠自動根據系統當前的狀況,自動調整緩衝池中物件的數量。
// 1. 定義一個bytes.Buffer的物件緩衝池
var buffers sync.Pool = sync.Pool{
New: func() interface{} {
return &bytes.Buffer{}
},
}
func IntToStringMap(m map[string]int) (string, error) {
// 2. 在需要的時候,從緩衝池中取出一個bytes.Buffer物件
buf := buffers.Get().(*bytes.Buffer)
buf.Reset()
// 3. 用完之後,將其重新放入緩衝池中
defer buffers.Put(buf)
buf.Write([]byte("{"))
for k, v := range m {
buf.WriteString(fmt.Sprintf(`"%s":%d,`, k, v))
}
if len(m) > 0 {
buf.Truncate(buf.Len() - 1) // 去掉最後一個逗號
}
buf.Write([]byte("}"))
return buf.String(), nil
}
上面我們使用sync.Pool
實現了一個bytes.Buffer
的緩衝池,在 IntToStringMap
函數中,我們從 buffers
中獲取一個 bytes.Buffer
物件,並在函數結束時將其放回池中,避免了頻繁建立和銷燬 bytes.Buffer
物件的開銷。
同時,由於sync.Pool
在IntToStringMap
呼叫不頻繁的情況下,能夠自動回收sync.Pool
中的bytes.Buffer
物件,無需使用者操心,也能減小記憶體的壓力。而且其底層實現也有考慮到多核cpu並行執行,每一個processor都會有其對應的本地快取,在一定程度也減少了多執行緒加鎖的開銷。
從上面可以看出,sync.Pool
使用起來非常簡單,但是其還是存在一些注意事項,如果使用不當的話,還是有可能會導致記憶體漏失等問題的,下面就來介紹sync.Pool
使用時的注意事項。
如果不注意放入sync.Pool
緩衝池中物件的大小,可能出現sync.Pool
中只存在幾個物件,卻佔據了大量的記憶體,導致記憶體漏失。
這裡對於有固定大小的物件,並不需要太過注意放入sync.Pool
中物件的大小,這種場景出現記憶體漏失的可能性小之又小。但是,如果放入sync.Pool
中的物件存在自動擴容的機制,如果不注意放入sync.Pool
中物件的大小,此時將很有可能導致記憶體漏失。下面來看一個例子:
func Sprintf(format string, a ...any) string {
p := newPrinter()
p.doPrintf(format, a)
s := string(p.buf)
p.free()
return s
}
Sprintf
方法根據傳入的format和對應的引數,完成組裝,返回對應的字串結果。按照普通的思路,此時只需要申請一個byte
陣列,然後根據一定規則,將format
和引數
的內容放入byte
陣列中,最終將byte
陣列轉換為字串返回即可。
按照上面這個思路我們發現,其實每次使用到的byte
陣列是可複用的,並不需要重複構建。
實際上Sprintf
方法的實現也是如此,byte
陣列其實並非每次建立一個新的,而是會對其進行復用。其實現了一個pp
結構體,format
和引數
按照一定規則組裝成字串的職責,交付給pp
結構體,同時byte
陣列作為pp
結構體的成員變數。
然後將pp
的範例放入sync.Pool
當中,實現pp
重複使用目的,從而簡介避免了重複建立byte
陣列導致頻繁的GC,同時也提升了效能。下面是newPrinter
方法的邏輯,獲取pp
結構體,都是從sync.Pool
中獲取:
var ppFree = sync.Pool{
New: func() any { return new(pp) },
}
// newPrinter allocates a new pp struct or grabs a cached one.
func newPrinter() *pp {
// 從ppFree中獲取pp
p := ppFree.Get().(*pp)
// 執行一些初始化邏輯
p.panicking = false
p.erroring = false
p.wrapErrs = false
p.fmt.init(&p.buf)
return p
}
下面回到上面的byte
陣列,此時其作為pp
結構體的一個成員變數,用於字串格式化的中間結果,定義如下:
// Use simple []byte instead of bytes.Buffer to avoid large dependency.
type buffer []byte
type pp struct {
buf buffer
// 省略掉其他不相關的欄位
}
這裡看起來似乎沒啥問題,但是其實是有可能存在記憶體浪費甚至記憶體漏失的問題。假如此時存在一個非常長的字串需要格式化,此時呼叫Sprintf
來實現格式化,此時pp
結構體中的buffer
也同樣需要不斷擴容,直到能夠儲存整個字串的長度為止,此時pp
結構體中的buffer
將會佔據比較大的記憶體。
當Sprintf
方法完成之後,重新將pp
結構體放入sync.Pool
當中,此時pp
結構體中的buffer
佔據的記憶體將不會被釋放。
但是,如果下次呼叫Sprintf
方法來格式化的字串,長度並沒有那麼長,但是此時從sync.Pool
中取出的pp
結構體中的byte陣列
長度卻是上次擴容之後的byte陣列
,此時將會導致記憶體浪費,嚴重點甚至可能導致記憶體漏失。
因此,因為pp
物件中buffer
欄位佔據的記憶體是會自動擴容的,物件的大小是不固定的,因此將pp
物件重新放入sync.Pool
中時,需要注意放入物件的大小,如果太大,可能會導致記憶體漏失或者記憶體浪費的情況,此時可以直接拋棄,不重新放入sync.Pool
當中。事實上,pp
結構體重新放入sync.Pool
也是基於該邏輯,其會先判斷pp
結構體中buffer
欄位佔據的記憶體大小,如果太大,此時將不會重新放入sync.Pool
當中,而是直接丟棄,具體如下:
func (p *pp) free() {
// 如果byte陣列的大小超過一定限度,此時將會直接返回
if cap(p.buf) > 64<<10 {
return
}
p.buf = p.buf[:0]
p.arg = nil
p.value = reflect.Value{}
p.wrappedErr = nil
// 否則,則重新放回sync.Pool當中
ppFree.Put(p)
}
基於以上總結,如果sync.Pool
中儲存的物件佔據的記憶體大小是不固定的話,此時需要注意放入物件的大小,防止記憶體漏失或者記憶體浪費。
TCP連線和資料庫連線等資源的獲取和釋放通常需要遵循一定的規範,比如需要在連線完成後顯式地關閉連線等,這些規範是基於網路協定、資料庫協定等規範而制定的,如果這些規範沒有被正確遵守,就可能導致連線洩漏、連線池資源耗盡等問題。
當使用 sync.Pool
儲存連線物件時,如果這些連線物件並沒有顯式的關閉,那麼它們就會在記憶體中一直存在,直到程序結束。如果連線物件數量過多,那麼這些未關閉的連線物件就會佔用過多的記憶體資源,導致記憶體漏失等問題。
舉個例子,假設有一個物件Conn
表示資料庫連線,它的Close
方法用於關閉連線。如果將Conn
物件放入sync.Pool
中,並在從池中取出並使用後沒有手動呼叫Close
方法歸還物件,那麼這些連線就會一直保持開啟狀態,直到程式退出或達到連線數限制等情況。這可能會導致資源耗盡或其他一些問題。
以下是一個簡單的範例程式碼,使用 sync.Pool
儲存TCP連線物件,演示了連線物件洩漏的情況:
import (
"fmt"
"net"
"sync"
"time"
)
var pool = &sync.Pool{
New: func() interface{} {
conn, err := net.Dial("tcp", "localhost:8000")
if err != nil {
panic(err)
}
return conn
},
}
func main() {
// 模擬使用連線
for i := 0; i < 100; i++ {
conn := pool.Get().(net.Conn)
time.Sleep(100 * time.Millisecond)
fmt.Fprintf(conn, "GET / HTTP/1.0\r\n\r\n")
// 不關閉連線
// 不在使用連線時,釋放連線物件到池中即可
pool.Put(conn)
}
}
在上面的程式碼中,我們使用 net.Dial
建立了一個 TCP 連線,並將其儲存到 sync.Pool
中。在模擬使用連線時,我們從池中獲取連線物件,向伺服器傳送一個簡單的 HTTP 請求,然後將連線物件釋放到池中。但是,我們沒有顯式地關閉連線物件。如果連線物件的數量很大,那麼這些未關閉的連線物件就會佔用大量的記憶體資源,導致記憶體漏失等問題。
因此,對於資料庫連線或者TCP連線這種資源的釋放需要遵循一定的規範,此時不應該使用sync.Pool
來複用,可以自己實現資料庫連線池等方式來實現連線的複用。
本文介紹了 Go 語言中的 sync.Pool
原語,它是實現物件重複利用,降低程式GC頻次,提高程式效能的一個非常好的工具。
我們首先通過一個簡單的JSON序列化器的實現,引入了需要物件重複使用的場景,進而自己實現了一個緩衝池,由該緩衝池存在的問題,進而引出sync.Pool
。接著,我們介紹了sync.Pool
的基本使用以及將其應用到JSON序列化器的實現當中。
在接下來,介紹了sync.Pool
常見的注意事項,如需要注意放入sync.Pool
物件的大小,對其進行了分析,從而講述了sync.Pool
可能存在的一些注意事項,幫忙大家更好得對其進行使用。
基於以上內容,本文完成了對 sync.Pool
的介紹,希望能夠幫助大家更好地理解和使用Go語言中的sync.Pool
。