作者:vivo 網際網路伺服器團隊-Zhang Rong
隨著vivo業務遷移到K8s的增長,我們需要將K8s部署到多個資料中心。如何高效、可靠的在資料中心管理多個大規模的K8s叢集是我們面臨的關鍵挑戰。kubernetes的節點需要對OS、Docker、etcd、K8s、CNI和網路外掛的安裝和設定,維護這些依賴關係繁瑣又容易出錯。
以前叢集的部署和擴縮容主要通過ansible編排任務,黑畫面化操作、設定叢集的inventory和vars執行ansible playbook。叢集運維的主要困難點如下:
本文將分享我們開發的Kubernetes-Operator,採用K8s的宣告式API設計,可以讓叢集管理員和Kubernetes-Operator的CR資源進行互動,以簡化、降低任務風險性。只需要一個叢集管理員就可以維護成千上萬個K8s節點。
主要基於ansible定義的OS、Docker、etcd、k8s和addons等叢集部署任務。
主要流程如下:
- Bootstrap OS
- Preinstall step
- Install Docker
- Install etcd
- Install Kubernetes Master
- Install Kubernetes node
- Configure network plugin
- Install Addons
- Postinstall setup
上面看到是叢集一鍵部署關鍵流程。當在多個資料中心部署完K8s叢集後,比如叢集元件的安全漏洞、新功能的上線、元件的升級等對線上叢集進行變更時,需要小心謹慎的去處理。我們做到了化整為零,對單個模組去處理。避免全量的去執行ansible指令碼,增加維護的難度。針對如Docker、etcd、K8s、network-plugin和addons的模組化管理和運維,需提供單獨的ansible指令碼入口,更加精細的運維操作,覆蓋到叢集大部分的生命週期管理。同時kubernetes-operator的api設計的時候可以方便選擇對應操作yml去執行操作。
叢集部署優化操作如下:
(1)K8s的元件引數管理通過ConmponentConfig[1]提供的API去標識組態檔。
(2)計劃切換到kubeadm部署
(3)ansible使用規範
部署出來的叢集,需要進行大量的場景測試和模擬。保證線上環境變更的可靠性和穩定性。
CI矩陣部分測試案例如下。
(1)語法測試:
- ansible-lint
- shellcheck
- yamllint
- syntax-check
- pep8
(2)叢集部署測試:
- 部署叢集
- 擴縮容控制節點、計算節點、etcd
- 升級叢集
- etcd、Docker、K8s和addons引數變更等
(3)效能和功能測試:
- 檢查kube-apiserver是否正常工作
- 檢查節點之間網路是否正常
- 檢查計算節點是否正常
- K8s e2e測試
- K8s conformance 測試
- 其他測試
這裡利用了GitLab、gitlab-runner[2]、ansible和kubevirt[3]等開源軟體構建了CI流程。
詳細的部署步驟如下:
如上圖所示,當開發人員在GitLab提交PR時會觸發一系列操作。這裡主要展示了建立虛擬機器器和叢集部署。其實在我們的叢集還部署了語法檢查和效能測試gitlab-runner,通過這些gitlab-runner建立CI的job去執行CI流程。
具體CI流程如下:
- 開發人員提交PR。
- 觸發CI自動進行ansible語法檢查。
- 執行ansible指令碼去建立namespace,pvc和kubevirt的虛擬機器器模板,最終虛擬機器器在K8s上執行。這裡主要用到ansible的K8s模組[6]去管理這些資源的建立和銷燬。
- 呼叫ansible指令碼去部署K8s叢集。
- 叢集部署完進行功能驗證和效能測試等。
- 銷燬kubevirt、pvc等資源。即刪除虛擬機器器,釋放資源。
如上圖所示,當開發人員提交多個PR時,會在K8s叢集中建立多個job,每個job都會執行上述的CI測試,互相不會產生影響。這種主要使用kubevirt的能力,實現了K8s on K8s的架構。
kubevirt主要能力如下:
Operator是一種用於特定應用的控制器,可以擴充套件 K8s API的功能,來代表K8s的使用者建立、設定和管理複雜應用的範例。基於K8s的資源和控制器概念構建,又涵蓋了特定領域或應用本身的知識。用於實現其所管理的應用生命週期的自動化。
總結 Operator功能如下:
- 部署
- 升級
- 擴縮容
- 備份
- 自我修復
- 等等
kubernetes-operator的使用很多自定義的CR資源和控制器,這裡簡單的介紹功能和作用。
【ClusterDeployment】: 管理員設定的唯一的CR,其中MachineSet、Machine和Cluster它的子資源或者關聯資源。ClusterDeployment是所有的設定引數入口,定義瞭如etcd、K8s、lb、叢集版本、網路和addons等所有設定。
【MachineSet】:叢集角色的集合包括控制節點、計算節點和etcd的設定和執行狀態。
【Machine】:每臺機器的具體資訊,包括所屬的角色、節點本身資訊和執行的狀態。
【Cluster】:和ClusterDeployment對應,它的status定義為subresource,減少
clusterDeployment的觸發壓力。主要用於儲存ansible執行器執行指令碼的狀態。
【ansible執行器】:主要包括K8s自身的job、configMap、Secret和自研的job控制器。其中job主要用來執行ansible的指令碼,因為K8s的job的狀態有成功和失敗,這樣job 控制器很好觀察到ansible執行的成功或者失敗,同時也可以通過job對應pod紀錄檔去檢視ansible的執行詳細流程。configmap主要用於儲存ansible執行時依賴的inventory和變數,掛在到job上。secret主要儲存登陸主機的金鑰,也是掛載到job上。
【擴充套件控制器】:主要用於擴充套件叢集管理的功能的附加控制器,在部署kubernetes-operator我們做了客製化,可以選擇自己需要的擴充套件控制器。比如addons控制器主要負責addon外掛的安裝和管理。clusterinstall主要生成ansible執行器。remoteMachineSet用於多叢集管理,同步後設資料叢集和業務叢集的machine狀態。還有其它的如對接公有云、dns、lb等控制器。
vivo的應用分佈在資料中心的多個K8s叢集上,提供了具有集中式多雲管理、統一排程、高可用性、故障恢復等關鍵特性。主要搭建了一個後設資料叢集的pass平臺去管理多個業務K8s叢集。在眾多關鍵元件中,其中kubernetes-operator就部署在後設資料叢集中,同時單獨執行了machine控制器去管理物理資源。
下面舉例部分場景如下:
場景一:
當大量應用遷移到kubernets上,管理員評估需要擴容叢集。首先需要審批物理資源並通過pass平臺生成對應machine的CR資源,此時的物理機處於備機池裡,machine CR的狀態為空閒狀態。當管理員建立ClusterDeploment時所屬的MachineSet會去關聯空閒狀態的machine,拿到空閒的machine資源,我們就可以觀測到當前需要操作機器的IP地址生成對應的inventory和變數,並建立configmap並掛載給job。執行擴容的ansible指令碼,如果job成功執行完會去更新machine的狀態為deployed。同時跨叢集同步node的控制器會檢查當前的擴容的node是否為ready,如果為ready,會更新當前的machine為Ready狀態,才完成整個擴容流程。
場景二:
當其中一個業務叢集出現故障,無法提供服務,觸發故障恢復流程,走統一資源排程。同時業務的策略是分配在多個業務叢集,同時設定了一個備用叢集,並沒有在備用叢集上分配範例,備用叢集並不實際存在。
有如下2種情況:
其它的業務叢集可以承載故障叢集的業務,kubernetes-operator不需要執行任何操作。
如果其他業務叢集不能承載故障叢集的業務。容器平臺開始預估資源,呼叫kubernetes-operator建立叢集,即建立clusterDeployment從備機池裡選擇物理機器,觀測到當前需要操作機器的IP地址生成對應的inventory和變數,建立configmap並掛載給job。執行叢集安裝的ansible指令碼, 叢集正常部署完成後開始業務的遷移。
vivo大規模的K8s叢集運維實踐中,從底層的叢集部署工具的優化,到大量的CI矩陣測試保證了我們線上叢集運維的安全和穩定性。採用了K8s託管K8s的方式來自動化管理叢集(K8s as a service),當operator檢測當前的叢集狀態,判斷是否與目標一致,出現不一致時,operator會發起具體的操作流程,驅動整個叢集達到目標狀態。
當前vivo的應用主要分佈在自建的資料中心的多個K8s叢集中,隨著應用的不斷的增長和複雜的業務場景,需要提供跨自建機房和雲的多個K8s叢集去執行原雲生的應用程式。就需要Kubernetes-Operator提供對接公有云基礎設施、apiserver的負載均衡、網路、dns和Cloud Provider 等。需要後續不斷完善,降低K8s叢集的運維難度。