大家好,我是小富~
今天是《分庫分表 ShardingSphere 原理與實戰》系列的開篇文章,之前寫過幾篇關於分庫分表的文章反響都還不錯,到現在公眾號:程式設計師小富
後臺不斷的有人留言、諮詢分庫分表的問題,我也沒想到大家對於分庫分表的話題會這麼感興趣,可能很多人的工作內容業務量較小很難接觸到這方面的技能。這個系列在我腦子裡籌劃了挺久的,奈何手說啥也不幹活,就一直拖到了現在。
其實網上關於分庫分表相關的文章很多,但我還是堅持出這個系列,主要是自己學習研究,順便給分享,對於一個知識,不同的人從不同的角度理解的不盡相同。
網上的資料看似很多,不過值得學有價值的得仔細挑,很多時候在篩選甄別的過程中,逐漸的磨滅了本就不高的學習熱情。搬運抄襲雷同的東西太多,而且知識點又都比較零碎,很少有細緻的原理實戰案例。對新手來說妥妥的從入門到放棄,即便有成體系的基本上幾篇後就斷更了(希望我不會吧!)。
我不太喜歡堆砌名詞概念,熟悉我的朋友不難發現,我的文章從來都是講完原理緊跟著來一波實戰操作。學習技術原理必須配合實操鞏固一下,不然三天半不到忘得乾乾淨淨,純純的經驗之談。
上圖是我初步羅列的ShardingSphere
提綱,在官網檔案基礎上補充了很多基礎知識,這個系列會用幾十篇文章,詳細的梳理分庫分表基礎理論,手把手的實戰ShardingSphere 5.X
框架的功能和解讀原始碼,以及開發中容易踩坑的點,每篇附帶程式碼案例demo,旨在讓新手也能看的懂,後續系列完結全部內容會整理成PDF分享給大家,期待一下吧!
話不多說,咱們這就進入正題~
不急於上手實戰ShardingSphere
框架,先來複習下分庫分表的基礎概念,技術名詞大多晦澀難懂,不要死記硬背理解最重要,當你捅破那層窗戶紙,發現其實它也就那麼回事。
分庫分表是在海量資料下,由於單庫、表資料量過大,導致資料庫效能持續下降的問題,演變出的技術方案。
分庫分表是由分庫
和分表
這兩個獨立概念組成的,只不過通常分庫與分表的操作會同時進行,以至於我們習慣性的將它們合在一起叫做分庫分表。
通過一定的規則,將原本資料量大的資料庫拆分成多個單獨的資料庫,將原本資料量大的表拆分成若干個資料表,使得單一的庫、表效能達到最優的效果(響應速度快),以此提升整體資料庫效能。
單機資料庫的儲存能力、連線數是有限的,它自身就很容易會成為系統的瓶頸。當單表資料量在百萬以裡時,我們還可以通過新增從庫、優化索引提升效能。
一旦資料量朝著千萬以上趨勢增長,再怎麼優化資料庫,很多操作效能仍下降嚴重。為了減少資料庫的負擔,提升資料庫響應速度,縮短查詢時間,這時候就需要進行分庫分表。
我們給資料庫範例分配的磁碟容量是固定的,資料量持續的大幅增長,用不了多久單機的容量就會承載不了這麼多資料,解決辦法簡單粗暴,加容量!
單機的容量可以隨意擴充套件,但資料庫的連線數卻是有限的,在高並行場景下多個業務同時對一個資料庫操作,很容易將連線數耗盡導致too many connections
報錯,導致後續資料庫無法正常存取。
可以通過max_connections
檢視MySQL最大連線數。
show variables like '%max_connections%'
將原本單資料庫按不同業務拆分成訂單庫、物流庫、積分庫等不僅可以有效分攤資料庫讀寫壓力,也提高了系統容錯性。
做過報表業務的同學應該都體驗過,一條SQL執行時間超過幾十秒的場景。
導致資料庫查詢慢的原因有很多,SQL沒命中索引、like掃全表、用了函數計算,這些都可以通過優化手段解決,可唯獨資料量大是MySQL無法通過自身優化解決的。慢的根本原因是InnoDB
儲存引擎,聚簇索引結構的 B+tree 層級變高,磁碟IO變多查詢效能變慢,詳細原理自行查詢一下,這裡不用過多篇幅說明。
阿里的開發手冊中有條建議,單錶行數超500萬行或者單表容量超過2GB,就推薦分庫分表,然而理想和實現總是有差距的,阿里這種體量的公司不差錢當然可以這麼用,實際上很多公司單表資料幾千萬、億級別仍然不選擇分庫分表。
技術群裡經常會有小夥伴問,到底什麼情況下會用分庫分表呢?
分庫分表要解決的是現存海量資料
存取的效能瓶頸,對持續激增
的資料量所做出的架構預見性。
是否分庫分表的關鍵指標是資料量,我們以fire100.top
這個網站的資源表 t_resource
為例,系統在執行初始的時候,每天只有可憐的幾十個資源上傳,這時使用單庫、單表的方式足以支援系統的儲存,資料量小几乎沒什麼資料庫效能瓶頸。
但某天開始一股神祕的流量進入,系統每日產生的資源資料量暴增至十萬甚至上百萬級別,這時資源表資料量到達千萬級,查詢響應變得緩慢,資料庫的效能瓶頸逐漸顯現。
以MySQL資料庫為例,單表的資料量在達到億條級別,通過加索引、SQL調優等傳統優化策略,效能提升依舊微乎其微時,就可以考慮做分庫分表了。
既然MySQL儲存海量資料時會出現效能瓶頸,那麼我們是不是可以考慮用其他方案替代它?比如高效能的非關係型資料庫MongoDB
?
可以,但要看儲存的資料型別!
現在網際網路上大部分公司的核心資料幾乎是儲存在關係型資料庫(MySQL、Oracle等),因為它們有著NoSQL
如法比擬的穩定性和可靠性,產品成熟生態系統完善,還有核心的事務功能特性,也是其他儲存工具不具備的,而評論、點贊這些非核心資料還是可以考慮用MongoDB
的。
分庫分表的核心就是對資料的分片(
Sharding
)並相對均勻的路由在不同的庫、表中,以及分片後對資料的快速定位與檢索結果的整合。
分庫與分表可以從:垂直(縱向)和 水平(橫向)兩種緯度進行拆分。下邊我們以經典的訂單業務舉例,看看如何拆分。
垂直分庫一般來說按照業務和功能的維度進行拆分,將不同業務資料分別放到不同的資料庫中,核心理念 專庫專用
。
按業務型別對資料分離,剝離為多個資料庫,像訂單、支付、會員、積分相關等表放在對應的訂單庫、支付庫、會員庫、積分庫。不同業務禁止跨庫直連,獲取對方業務資料一律通過API
介面互動,這也是微服務拆分的一個重要依據。
垂直分庫很大程度上取決於業務的劃分,但有時候業務間的劃分並不是那麼清晰,比如:電商中訂單資料的拆分,其他很多業務都依賴於訂單資料,有時候界線不是很好劃分。
垂直分庫把一個庫的壓力分攤到多個庫,提升了一些資料庫效能,但並沒有解決由於單表資料量過大導致的效能問題,所以就需要配合後邊的分表來解決。
垂直分錶針對業務上欄位比較多的大表進行的,一般是把業務寬表中比較獨立的欄位,或者不常用的欄位拆分到單獨的資料表中,是一種大表拆小表的模式。
例如:一張t_order
訂單表上有幾十個欄位,其中訂單金額相關欄位計算頻繁,為了不影響訂單表t_order
的效能,就可以把訂單金額相關欄位拆出來單獨維護一個t_order_price_expansion
擴充套件表,這樣每張表只儲存原表的一部分欄位,通過訂單號order_no
做關聯,再將拆分出來的表路由到不同的庫中。
資料庫它是以行為單位將資料載入到記憶體中,這樣拆分以後核心表大多是存取頻率較高的欄位,而且欄位長度也都較短,因而可以載入更多資料到記憶體中,減少磁碟IO,增加索引查詢的命中率,進一步提升資料庫效能。
上邊垂直分庫、垂直分表後還是會存在單庫、表資料量過大的問題,當我們的應用已經無法在細粒度的垂直切分時,依舊存在單庫讀寫、儲存效能瓶頸,這時就要配合水平分庫、水平分表一起了。
水平分庫是把同一個表按一定規則拆分到不同的資料庫中,每個庫可以位於不同的伺服器上,以此實現水平擴充套件,是一種常見的提升資料庫效能的方式。
例如:db_orde_1
、db_order_2
兩個資料庫內有完全相同的t_order
表,我們在存取某一筆訂單時可以通過對訂單的訂單編號取模的方式 訂單編號 mod 2 (資料庫範例數)
,指定該訂單應該在哪個資料庫中操作。
這種方案往往能解決單庫儲存量及效能瓶頸問題,但由於同一個表被分配在不同的資料庫中,資料的存取需要額外的路由工作,因此係統的複雜度也被提升了。
水平分表是在同一個資料庫內,把一張巨量資料量的表按一定規則,切分成多個結構完全相同表,而每個表只存原表的一部分資料。
例如:一張t_order
訂單表有900萬資料,經過水平拆分出來三個表,t_order_1
、t_order_2
、t_order_3
,每張表存有資料300萬,以此類推。
水平分表儘管拆分了表,但子表都還是在同一個資料庫範例中,只是解決了單一表資料量過大的問題,並沒有將拆分後的表分散到不同的機器上,還在競爭同一個物理機的CPU、記憶體、網路IO等。要想進一步提升效能,就需要將拆分後的表分散到不同的資料庫中,達到分散式的效果。
分庫分表以後會出現一個問題,一張表會出現在多個資料庫裡,到底該往哪個庫的哪個表裡存呢?
上邊我們多次提到過一定規則
,其實這個規則它是一種路由演演算法,決定了一條資料具體應該存在哪個資料庫的哪張表裡。
常見的有 取模演演算法
、範圍限定演演算法
、範圍+取模演演算法
、預定義演演算法
關鍵欄位取模(對hash結果取餘數 hash(XXX) mod N),N為資料庫範例數或子表數量)是最為常見的一種路由方式。
以t_order
訂單表為例,先給資料庫從 0 到 N-1進行編號,對 t_order
訂單表中order_no
訂單編號欄位進行取模hash(order_no) mod N
,得到餘數i
。i=0
存第一個庫,i=1
存第二個庫,i=2
存第三個庫,以此類推。
同一筆訂單資料會落在同一個庫、表裡,查詢時用相同的規則,用t_order
訂單編號作為查詢條件,就能快速的定位到資料。
實現簡單,資料分佈相對比較均勻,不易出現請求都打到一個庫上的情況。
取模演演算法對叢集的伸縮支援不太友好,叢集中有N個資料庫實·hash(user_id) mod N
,當某一臺機器宕機,本應該落在該資料庫的請求就無法得到處理,這時宕掉的範例會被踢出叢集。
此時機器數減少演演算法發生變化hash(user_id) mod N-1
,同一使用者資料落在了在不同資料庫中,等這臺機器恢復,用user_id
作為條件查詢使用者資料就會少一部分。
範圍限定演演算法以某些範圍欄位,如時間
或ID區
拆分。
使用者表t_user
被拆分成t_user_1
、t_user_2
、t_user_3
三張表,後續將user_id
範圍為1 ~ 1000w的使用者資料放入t_user_1
,1000~ 2000w放入t_user_2
,2000~3000w放入t_user_3
,以此類推。按日期範圍劃分同理。
資料熱點
,比如按時間欄位分片時,如果某一段時間(雙11等大促)訂單驟增,存11月資料的表可能會被頻繁的讀寫,其他分片表儲存的歷史資料則很少被查詢,導致資料傾斜,資料庫壓力分攤不均勻。為了避免熱點資料的問題,我們可以對上範圍演演算法優化一下
這次我們先通過範圍演演算法定義每個庫的使用者表t_user
只存1000w資料,第一個db_order_1
庫存放userId
從1 ~ 1000w,第二個庫10002000w,第三個庫20003000w,以此類推。
每個庫裡再把使用者表t_user
拆分成t_user_1
、t_user_2
、t_user_3
等,對userd
進行取模路由到對應的表中。
有效的避免資料分佈不均勻的問題,資料庫水平擴充套件也簡單,直接新增範例無需遷移歷史資料。
地理位置分片其實是一個更大的範圍,按城市或者地域劃分,比如華東、華北資料放在不同的分片庫、表。
預定義演演算法是事先已經明確知道分庫和分表的數量,可以直接將某類資料路由到指定庫或表中,查詢的時候亦是如此。
瞭解了上邊分庫分表的拆分方式不難發現,相比於拆分前的單庫單表,系統的資料儲存架構演變到現在已經變得非常複雜。看幾個具有代表性的問題,比如:
分頁、排序、聯合查詢,這些看似普通,開發中使用頻率較高的操作,在分庫分表後卻是讓人非常頭疼的問題。把分散在不同庫中表的資料查詢出來,再將所有結果進行彙總合併整理後提供給使用者。
比如:我們要查詢11、12月的訂單資料,如果兩個月的資料是分散到了不同的資料庫範例,則要查詢兩個資料庫相關的資料,在對資料合併排序、分頁,過程繁瑣複雜。
分庫分表後由於表分佈在不同庫中,不可避免會帶來跨庫事務問題。後續會分別以阿里的Seata
和MySQL的XA
協定實現分散式事務,用來比較各自的優勢與不足。
分庫分表後資料庫表的主鍵ID業務意義就不大了,因為無法在標識唯一一條記錄,例如:多張表t_order_1
、t_order_2
的主鍵ID全部從1開始會重複,此時我們需要主動為一條記錄分配一個ID,這個全域性唯一的ID就叫分散式ID
,發放這個ID的系統通常被叫發號器。
對多個資料庫以及庫內大量分片表的高效治理,是非常有必要,因為像某寶這種大廠一次大促下來,訂單表可能會被拆分成成千上萬個t_order_n
表,如果沒有高效的管理方案,手動建表、排查問題是一件很恐怖的事。
分庫分表架構落地以後,首要的問題就是如何平滑的遷移歷史資料,增量資料和全量資料遷移,這又是一個比較麻煩的事情,後邊詳細講。
分庫分表架構主要有兩種模式:client
使用者端模式和proxy
代理模式
client
模式指分庫分表的邏輯都在你的系統應用內部進行控制,應用會將拆分後的SQL直連多個資料庫進行操作,然後本地進行資料的合併彙總等操作。
proxy
代理模式將應用程式與MySQL資料庫隔離,業務方的應用不在需要直連資料庫,而是連線proxy代理服務,代理服務實現了MySQL的協定,對業務方來說代理服務就是資料庫,它會將SQL分發到具體的資料庫進行執行,並返回結果。該服務內有分庫分表的設定,根據設定自動建立分片表。
如何選擇client
模式和proxy
模式,我們可以從以下幾個方面來簡單做下比較。
效能方面client
模式表現的稍好一些,它是直接連線MySQL執行命令;
proxy
代理服務則將整個執行鏈路延長了,應用->代理服務->MySQL,可能導致效能有一些損耗,但兩者差距並不是非常大。
client
模式在開發使用通常引入一個jar可以;
proxy
代理模式則需要搭建單獨的服務,有一定的維護成本,既然是服務那麼就要考慮高可用,畢竟應用的所有SQL都要通過它轉發至MySQL。
client
模式分庫分表一般是依賴基礎架構團隊的Jar包,一旦有版本升級或者Bug修改,所有應用到的專案都要跟著升級。小規模的團隊服務少升級問題不大,如果是大公司服務規模大,且涉及到跨多部門,那麼升級一次成本就比較高;
proxy
模式在升級方面優勢很明顯,釋出新功能或者修復Bug,只要重新部署代理服務叢集即可,業務方是無感知的,但要保證釋出過程中服務的可用性。
client
模式由於是內嵌在應用內,應用叢集部署不太方便統一處理;proxy
模式在對SQL限流、讀寫許可權控制、監控、告警等服務治理方面更優雅一些。
本文主要是回顧一下分庫分表的一些基礎概念,為大家在後續ShardingSphere
實踐中更好上手理解,內容裡很多概念一筆帶過沒詳細展開,接下來的篇幅會逐一解讀。
下一篇預告《分庫分表ShardingSphere的基礎知識點梳理》
歡迎關注 公眾號:程式設計師小富,咱們下期再見!