基于kubernetes的docker集群實踐

jopen 9年前發布 | 40K 次閱讀 集群/負載均衡 Kubernetes
 

在公司內部,基于kubernetes實現了簡單的docker應用集群系統,拿出來和大家分享下,在這個系統中,實現了應用的自動部署、動態擴容、節點切換、健康檢查、AB式版本更新等功能,也歡迎大家將各自的實現也分享給我。

整體架構

整體架構如下圖:

基于kubernetes的docker集群實踐

其中分為分為這幾個塊:

  • APPBuilder: 應用構建模塊,負責將app打包成dockerimage,并入image版本庫;
  • container: 容器運行,docker容器實際運行的地方;
  • thirdPart: 應用依賴的第三方資源,如redis、mysql等;
  • scheduler: 調度系統,核心部分,負責各個子模塊的智能調度;
  • router: 基于7層的請求分發,根據url將請求分發到對應的app容器;
  • nats: 基于4層的負載均衡,,將流量負載均衡到router集群;
  • healthManage: 健康檢查系統,包括了對router rules、容器狀態、物理機狀態等各個子模塊健康的檢查,并做相應補救action;
  • log模塊: 統一處理app所產生的日志;

scheduler

首先先介紹下最重要的部分,使用kubernetes作為技術實現,關于介紹和部署可以參考之前的 blog:kubernetes 0.18.1 安裝 & 部署 & 初試 ,不過這個文檔中只有單機的master-slave,不太符合線上使用,我們在此基礎上做了以下升級:

  • 部署etcd集群,具體過程可以參考etcd官方: Clustering Guide
  • 部署kubernetes master cluster,分別部署有 kube-apiserver,kube-scheduler,kube-controller-manager;
  • 增加對kubernetes訪問的 認證 & 授權, 具體可參考我之前的blog, kubernetes Authorizationkubernetes Authenticationkubernetes中的Admission Controllers
  • 關閉kube master的非安全端口訪問,關閉 insecure-port,開啟secure-port,并對kubernetes secure api訪問增加前端負載均衡,如在blog kubernetes 實用 api list 所示,訪問就是通過認證&https請求api(當然了其中的信息都是假的,但是格式不變);
  • 設置相關的訪問權限,如,kube slave節點只允許來自kube-master節點的iP訪問,kube-master只允許具有操作權限的機器節點的ip訪問等等;
  • 對kubernetes master子模塊的參數做符合我們要求的調整等;

附上制作https私有key&證書的方法:

openssl genrsa -aes256 -out ca-key.pem 2048

openssl req -new -x509 -days 3650 -key ca-key.pem -sha256 -out ca.pem (在提示輸入Common Name時,輸入https訪問的host,如10.10.5.103)

openssl genrsa -out server-key.pem 2048

openssl req -subj "/CN=10.10.5.103" -new -key server-key.pem -out server.csr

echo subjectAltName = IP:10.10.5.103,IP:127.0.0.1 > extfile.cnf

openssl x509 -req -days 3650 -in server.csr -CA ca.pem -CAkey ca-key.pem \

-CAcreateserial -out server-cert.pem -extfile extfile.cnf

產生三個文件: ca-key.pemserver-key.pemserver-cert.pem

設置kube-apiserver參數:

--tls-cert-file=./server-cert.pem   \ --tls-private-key-file=./server-key.pem 

在client訪問時,通過ca-key.pem來進行訪問

container

對于container節點,沒什么好說的,其實就是kubernetes slave節點,部署有:kube-proxy, kubelet,docker。沒有什么好說的,主要是對個別參數做了調整等等。

Router

我們選用gorouter作為七層路由轉發工具,并將其搭建起cluster,部署見bloggorouter 安裝部署, 不過在設置rules的生命周期時,我們將周期設定為永久,如果發生rules失效,通過healthCheck來刪掉已失效的rule。

nats

四層負載均衡,就很統一了,開源的可以使用LVS,土豪的可以使用F5,我們是土豪,我們使用的是F5.

ThirdPart

為app應用所依賴的mysql、redis等,有專門的童鞋負責維護,短期內不考慮和kubernetes、docker結合。

APP Builder

負責應用的鏡像打包,我們這里選用 jekins 作為使用的工具,每次app上線前,首先要先構建此app 版本的dockerimage,push 到私有的docker-registry。之后的升級操作流程如下:

基于kubernetes的docker集群實踐

如果是回滾也十分方便,將上一個版本在走一次這個流程即可,對應用使用者來說,沒有任何終端感知,當AB兩個版本都生效后,將AB兩個版本的rule都加入router,在將A版本的router下掉,就完成了上線/回滾的操作。代碼地址稍后放出。

health Manage

健康監控檢查,可以說是集群中最重要的一部分了。我們在這里沒有使用kubernetes推薦的方式,我們自己將其與內部的zabbix系統做了結合,通過zabbix來對整個集群進行監控、報警、自動化操作。

  1. 對于kubernetes master,監控項有:

    • kuber-apiserver的狀態;

- kube-controller-manager的狀態;

- kube-scheduler的狀態;

- kubernetes中namespace、replicationcontroller、service、pods等主要資源的數量&狀態變化;

2. 對于kubernetes slave(即container節點),監控項有:

- kubelet健康狀態;

- kube-proxy健康狀態;

- docker 的dataspace、metadataspace 使用情況;

- 當前節點運行容器的信息,包括了全部數量、正在運行的數量、版本等;

3. 對于docker容器本身,可參考blog Docker監控的一點想法 ,監控項有:

- 創建時間 & 信息參數;

- 容器運行狀態;

- 容器內存、cpu、流量情況;

4. 還有一個重點是對router及其rule做重點監控

- 檢查所有router的運行狀態;

- 監控所有node狀態,如果非健康,及時刪除router中所以指向此node的rules;

- 檢查所有的pods及對應的rule,如果pods中的app服務失效 或者 沒有對應的rule指向pods(比如node節點損壞,其原有的pod移動到新node節點),此時為pod更新router中的rule;

log:

對于日志這塊,業界一直沒有一項統一的做法,在這里我們的做法是通過透傳的方式,將容器中的日志匯總到宿主機,在進行進一步的處理:

1. 統一了所有接入系統的app的日志規范,包括了日志格式、日志路徑;

2. 將容器中應用的日志根據app的不同映射到宿主機中指定的路徑;

3. 結合 flume, kafka, influxDB 還有其他一些組件( 日志系統經典的 ELK組合),將應用的日志進行匯總,方便RD同學對日志進行處理。

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!