多集群下的 Tekton 流水线

技术
  1. 多集群构建 Tekton 的优势

借助于 Kubernetes, Tekton 已经具备很好的弹性, 能够支持大规模构建。同时, 开发 Task 主要使用 Yaml 和 Shell, 这扩大了 Tekton 的各种场景适配范围。

picture.image

上面是一张 Tekton 在多集群下的示意图。为什么 Tekton 需要多集群执行流水线?

  • 随时可变的 Kubernetes 集群。单一的 Kubernetes 集群, 无法满足运维的要求, 不能随时对集群进行变更。多集群下, 可以下架部分集群进行维护。
  • 更大规模的构建。CI 对 CPU、内存、IO 资源的消耗很大, 容易压垮节点甚至集群。多集群能有效分担负载压力,提高可用性。
  • 业务隔离。业务对代码安全等级、构建速度、构建环境要求不一样, 多集群能够提供隔离的环境, 定制化的流水线服务。
  1. Kubernetes Cluster Federation

Kubernetes Cluster Federation 简称 KubeFed。KubeFed v2 相较于 v1 最大的改变是将 API Server 移除, 并且通过 CRD 机制完成 Federated Resource 的扩展。KubeFed Controller 管理这些 CRD, 并实现同步 Resources 跨集群编排等功能,实现模块化和定制化。下面是社区的架构图:

picture.image

KubeFed 配置了两种类型的信息:

  • Type configuration, 声明 KubeFed 处理的 API 类型
  • Cluster configuration, 声明 KubeFed 管理哪些集群

Type configuration 有三个基本概念:

  • Templates, 定义资源在集群中的模板描述
  • Placement, 定义资源需要分发到哪些集群
  • Overrides, 定义在集群中,需要覆盖 Templates 的字段内容

此外,通过 Status、Policy 和 Scheduling 可以实现更高级的功能:

  • Status 收集分发资源在各个集群中的状态
  • Policy 允许将资源分配给哪些集群的策略控制
  • Scheduling 允许资源跨集群迁移副本

除此,KubeFed 还提供了 MultiClusterDNS,可以用于多集群之间的服务发现。

  1. 联邦化 Kubernetes 集群

3.1 准备集群并配置 Context

这里部署两个集群: dev1 作为主集群,用来作为 Tekton 的控制面,不运行流水线任务; dev2 作为子集群,用来执行 Tekton 流水线任务。

  1. 准备两个集群

主集群 dev1


        
          
kubectl get node  
  
NAME    STATUS   ROLES                         AGE    VERSION  
node1   Ready    control-plane,master,worker   151m   v1.20.4  

      

        
          
helm version  
  
version.BuildInfo{Version:"v3.2.1", GitCommit:"fe51cd1e31e6a202cba7dead9552a6d418ded79a", GitTreeState:"clean", GoVersion:"go1.13.10"}  

      

子集群 dev2


        
          
kubectl get node  
  
NAME    STATUS   ROLES                         AGE   VERSION  
node1   Ready    control-plane,master,worker   42d   v1.20.4  

      
  1. 在主集群上配置全部集群的 Context(要求集群 Apiserver 入口在一个网络,能够直连),用来添加子集群

这里 contexts 中的 name 不能含义 @ 等特殊字符, 否则 join 时会报错。因为 name 会用来创建 Secret, 需要符合 Kubernetes 的命名规范。

将主集群 dev1 的 kubeconfig 放在 ~/.kube/config-1,并修改 name 等信息,格式如下:


        
          
apiVersion: v1  
clusters:  
- cluster:  
    ...  
  name: dev1.cluster.local  
contexts:  
- context:  
    cluster: dev1.cluster.local  
    user: dev1-kubernetes-admin  
  name: dev1-context  
users:  
- name: dev1-kubernetes-admin  
  user:  
    ...  

      

将子集群 dev2 的 kubeconfig 放在 ~/.kube/config-2,并修改 name 等信息,格式如下:


        
          
apiVersion: v1  
clusters:  
- cluster:  
    ...  
  name: dev2.cluster.local  
contexts:  
- context:  
    cluster: dev2.cluster.local  
    user: dev2-kubernetes-admin  
  name: dev2-context  
users:  
- name: dev2-kubernetes-admin  
  user:  
    ...  

      
  1. 合并 kubeconfig

        
          
cd $HOME/.kube/  
KUBECONFIG=config-1:config-2 kubectl config view --flatten > $HOME/.kube/config  

      
  1. 查看添加的集群 Context

        
          
kubectl config get-contexts  
  
CURRENT   NAME           CLUSTER              AUTHINFO                NAMESPACE  
          dev1-context   dev1.cluster.local   dev1-kubernetes-admin  
          dev2-context   dev2.cluster.local   dev2-kubernetes-admin  

      
  1. 切换到主集群 dev1

        
          
kubectl config use-context dev1-context  
  
Switched to context "dev1-context".  

      

3.2 在主集群上安装 KubeFed

  1. 使用 Helm 安装 KubeFed

        
          
git clone https://github.com/kubernetes-sigs/kubefed.git  
cd kubefed/charts/  
helm install kubefed ./kubefed/ --namespace kube-federation-system --create-namespace  

      
  1. 查看负载

        
          
kubectl get deploy,pod -n kube-federation-system  
  
NAME                                         READY   UP-TO-DATE   AVAILABLE   AGE  
deployment.apps/kubefed-admission-webhook    1/1     1            1           95s  
deployment.apps/kubefed-controller-manager   2/2     2            2           95s  
  
NAME                                              READY   STATUS    RESTARTS   AGE  
pod/kubefed-admission-webhook-598bd776c6-gv4qh    1/1     Running   0          95s  
pod/kubefed-controller-manager-6d9bf98d74-n8kjz   1/1     Running   0          17s  
pod/kubefed-controller-manager-6d9bf98d74-nmb2j   1/1     Running   0          14s  

      

3.3 在主集群上安装 kubefedctl

执行命令:


        
          
wget https://github.com/kubernetes-sigs/kubefed/releases/download/v0.8.0/kubefedctl-0.8.0-linux-amd64.tgz  
tar -zxvf kubefedctl-*.tgz  
mv kubefedctl /usr/local/bin/  

      

3.4 添加集群

在主集群上执行命令, 将 dev1、dev2 都添加到主集群 dev1 上。


        
          
kubefedctl join dev1-context --host-cluster-context dev1-context --kubefed-namespace=kube-federation-system --v=2  
  
I0625 14:32:42.969373   25920 join.go:861] Using secret named: dev1-context-dev1-context-token-2w8km  
I0625 14:32:42.972316   25920 join.go:934] Created secret in host cluster named: dev1-context-ln6vx  
I0625 14:32:42.991399   25920 join.go:299] Created federated cluster resource  

      

        
          
kubefedctl join dev2-context --host-cluster-context dev1-context --kubefed-namespace=kube-federation-system --v=2  
  
I0625 14:33:11.836472   26424 join.go:861] Using secret named: dev2-context-dev1-context-token-dcl8s  
I0625 14:33:11.840121   26424 join.go:934] Created secret in host cluster named: dev2-context-264dz  
I0625 14:33:11.898044   26424 join.go:299] Created federated cluster resource  

      

查看集群列表:


        
          
kubectl -n kube-federation-system get kubefedclusters  
  
NAME           AGE   READY  
dev1-context   45s   True  
dev2-context   16s   True  

      

3.5 测试集群是否联邦成功

  • 查看已经联邦化的资源

安装 KubeFed 之后,常见的很多资源都已经联邦化,可以在 CRD 中查看:


        
          
kubectl get crd |grep federated  
  
federatedclusterroles.types.kubefed.io                2021-06-26T06:22:50Z  
federatedconfigmaps.types.kubefed.io                  2021-06-26T06:22:50Z  
federateddeployments.types.kubefed.io                 2021-06-26T06:22:50Z  
federatedingresses.types.kubefed.io                   2021-06-26T06:22:50Z  
federatedjobs.types.kubefed.io                        2021-06-26T06:22:50Z  
federatednamespaces.types.kubefed.io                  2021-06-26T06:22:50Z  
federatedreplicasets.types.kubefed.io                 2021-06-26T06:22:50Z  
federatedsecrets.types.kubefed.io                     2021-06-26T06:22:50Z  
federatedserviceaccounts.types.kubefed.io             2021-06-26T06:22:50Z  
federatedservices.types.kubefed.io                    2021-06-26T06:22:50Z  
federatedservicestatuses.core.kubefed.io              2021-06-26T06:22:50Z  
federatedtypeconfigs.core.kubefed.io                  2021-06-26T06:22:50Z  

      

federatedtypeconfigs 中也可以看到已经开启联邦的资源。


        
          
kubectl get federatedtypeconfigs.core.kubefed.io -n kube-federation-system  
  
NAME                                     AGE  
clusterroles.rbac.authorization.k8s.io   29m  
configmaps                               29m  
deployments.apps                         29m  
ingresses.extensions                     29m  
jobs.batch                               29m  
namespaces                               29m  
replicasets.apps                         29m  
secrets                                  29m  
serviceaccounts                          29m  
services                                 29m  

      
  • 创建一个联邦的 Namespace

Namespace 级别的资源需要放置在联邦化的 Namespace 下,否则在进行资源分发时,Controller 会报错。


        
          
apiVersion: v1  
kind: Namespace  
metadata:  
  name: testing-fed  
---  
apiVersion: types.kubefed.io/v1beta1  
kind: FederatedNamespace  
metadata:  
  name: testing-fed  
  namespace: testing-fed  
spec:  
  placement:  
    clusters:  
    - name: dev1-context  
    - name: dev2-context  

      
  • 在主集群创建一个联邦的 Deployment

常见的 Deployment 是这样:


        
          
apiVersion: apps/v1  
kind: Deployment  
metadata:  
  name: nginx  
  namespace: default  
spec:  
  replicas: 1  
  selector:  
    matchLabels:  
      app: nginx  
  template:  
    metadata:  
      labels:  
        app: nginx  
    spec:  
      containers:  
      - image: nginx  
        name: nginx  

      

而联邦的 Deployment 是这样。


        
          
apiVersion: types.kubefed.io/v1beta1  
kind: FederatedDeployment  
metadata:  
  name: nginx-fed  
  namespace: testing-fed  
spec:  
  overrides:  
    - clusterName: dev1-context  
      clusterOverrides:  
        - path: /spec/replicas  
          value: 2  
    - clusterName: dev2-context  
      clusterOverrides:  
        - path: /spec/replicas  
          value: 3  
  placement:  
    clusters:  
      - name: dev1-context  
      - name: dev2-context  
  template:  
    metadata:  
      labels:  
        app: nginx  
      namespace: testing-fed  
    spec:  
      replicas: 1  
      selector:  
        matchLabels:  
          app: nginx  
      template:  
        metadata:  
          labels:  
            app: nginx  
        spec:  
          containers:  
            - image: nginx  
              name: nginx  

      

FederatedDeployment 编写时,需要注意三个字段


          
- overrides, 根据不同集群, 需要覆盖的字段属性。这里将 dev1 上的副本数改为 2,而将 dev2 上的副本数改为 3。  
- placement, 资源需要放置的集群列表。这里放置在 dev1、dev2 两个集群。  
- template, 资源的模板。这里是 Deployment 去掉 apiVersion 和 kind 的剩余部分。  

      
  • 验证资源是否分发成功

在 dev1 集群上


        
          
kubectl -n testing-fed get pod  
  
NAME                         READY   STATUS    RESTARTS   AGE  
nginx-fed-6799fc88d8-7llk9   1/1     Running   0          8m2s  
nginx-fed-6799fc88d8-clc5w   1/1     Running   0          8m2s  

      

在 dev2 集群上


        
          
kubectl -n testing-fed get pod  
  
NAME                         READY   STATUS    RESTARTS   AGE  
nginx-fed-6799fc88d8-2ld4k   1/1     Running   0          7m49s  
nginx-fed-6799fc88d8-6dncp   1/1     Running   0          7m49s  
nginx-fed-6799fc88d8-x64fb   1/1     Running   0          7m49s  

      
  1. 联邦化 Tekton 的 CRD 资源

4.1 安装 Tekton

在所有集群上都需要安装 Tekton


        
          
kubectl apply -f https://raw.githubusercontent.com/shaowenchen/scripts/main/image-sync/tektondev/dockerhub/release-0.24.1.yaml  

      

由于 Tekton 社区使用的是 gcr.io 的镜像, 有些主机环境上可能无法拉取。我在 Dockerhub 上对其进行了备份, 在这里可以找到相关的 yaml, https://github.com/shaowenchen/scripts/tree/main/image-sync/tektondev/dockerhub

4.2 联邦化 Tekton 的 CRD

安装 KubeFed 时, 会默认将常见的 Deployment、Secret 等联邦化, 但如果是用户自定义的 CRD 就需要手动开启。

执行命令:


        
          
kubefedctl enable clustertasks.tekton.dev  
kubefedctl enable conditions.tekton.dev  
kubefedctl enable pipelineresources.tekton.dev  
kubefedctl enable pipelineruns.tekton.dev  
kubefedctl enable pipelines.tekton.dev  
kubefedctl enable runs.tekton.dev  
kubefedctl enable taskruns.tekton.dev  
kubefedctl enable tasks.tekton.dev  

      

以 taskruns 为例, kubefedctl enable taskruns.tekton.dev 会自动创建两个资源:

  • customresourcedefinition.apiextensions.k8s.io/federatedtaskruns.types.kubefed.io, 联邦 CRD 资源 federatedtaskruns
  • federatedtypeconfig.core.kubefed.io/taskruns.tekton.dev, 在 kube-federation-system 命名空间下, 创建 federatedtypeconfig 类型的资源 taskruns 开启资源分发使能

4.3 编辑新创建的联邦 CRD 资源添加字段

缺少这一步, 会导致同步到子集群的 CR 资源内容为空。因为 kubefedctl enable 联邦化 CRD 资源缺少 template 字段。

执行命令:


        
          
kubectl edit crd federatedtasks.types.kubefed.io  

      

在与 overridesplacement 平级的层次,添加下面示例的 template 内容即可。


        
          
apiVersion: apiextensions.k8s.io/v1  
...  
spec:  
  versions:  
  - name: v1beta1  
    schema:  
      openAPIV3Schema:  
        properties:  
          spec:  
            properties:  
              overrides:  
                ...  
              placement:  
                ...  
              template:  
                type: object  
                x-kubernetes-preserve-unknown-fields: true  
            type: object  

      

如果觉得不够清晰,可以参考 https://github.com/shaowenchen/scripts/tree/main/image-sync/tektondev/kubefed 修改。如果你也是使用版本 0.24.1, 可以直接 kubectl apply 这些 CRD 资源。

4.4 测试多集群下分发 Tekton 对象

这里为了避免粘贴大量 yaml, 直接提前预先在子集群上创建 Task 资源, 而没有使用 FederatedTask 进行分发。

  • 在子集群上创建 Task

        
          
kubectl apply -f https://raw.githubusercontent.com/tektoncd/catalog/main/task/git-clone/0.4/git-clone.yaml -n testing-fed  

      
  • 在主集群 dev1 上创建 FederatedTaskRun 资源分发到子集群 dev2

        
          
apiVersion: types.kubefed.io/v1beta1  
kind: FederatedTaskRun  
metadata:  
  name: git-clone-test  
  namespace: testing-fed  
spec:  
  placement:  
    clusters:  
    - name: dev2-context  
  template:  
    metadata:  
      namespace: testing-fed  
    spec:  
      workspaces:  
        - name: output  
          emptyDir: {}  
      taskRef:  
        name: git-clone  
      params:  
        - name: url  
          value: https://github.com/kelseyhightower/nocode  

      
  • 在子集群 dev2 上查看 Tekton 的 Taskrun 任务

        
          
kubectl get taskrun -n testing-fed  
  
NAME             SUCCEEDED   REASON      STARTTIME   COMPLETIONTIME  
git-clone-test   True        Succeeded   15s         7s  

      
  1. 总结

本文主要介绍并实践了利用 KubeFed 管理多集群,对 Tekton CRD 资源进行联邦化。

多集群下的 Tekton,使用主集群管理资源,使用子集群执行流水线,能够有效均衡负载,增加流水线的并发执行量,提高 CICD 系统的可维护性。

这里的 KubeFed 主要是用来存储并分发 Tekton 对象资源。如果自研编码,可以通过数据存储加循环控制器完成,但是利用 KubeFed Controller 能快速实现,同时避免了很多潜在的问题。KubeFed 用于做跨集群的资源分发,非常适用。

  1. 参考

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
字节跳动 EB 级湖仓一体分析服务 LAS 的实践与展望
火山引擎湖仓一体分析服务 LAS 是面向湖仓一体架构的 Serverless 数据处理分析服务,提供一站式的海量数据存储计算和交互分析能力,完全兼容 Spark、Presto、Flink 生态,在字节跳动内部有着广泛的应用。本次演讲将介绍 LAS 在字节跳动内部的发展历程和大规模应用实践,同时介绍 LAS 在火山引擎上的发展规划。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论