• Kubernetes(k8s)最新版最完整版环境部署+master高可用实现(k8sV1.24.1+dashboard+harbor)


    文章目录

    一、前言

    其实之前已经部署过了1.22.1版本了,基础概念和细节的东西这里就不再重复了,小伙伴可以参考我之前的文章哦:

    官网:https://kubernetes.io/
    官方文档:https://kubernetes.io/zh-cn/docs/home/

    二、基础环境部署

    1)前期准备(所有节点)

    1、修改主机名和配置hosts

    先部署1master和2node节点,后面再加一个master节点

    # 在192.168.0.113执行
    hostnamectl set-hostname  k8s-master-168-0-113
    # 在192.168.0.114执行
    hostnamectl set-hostname k8s-node1-168-0-114
    # 在192.168.0.115执行
    hostnamectl set-hostname k8s-node2-168-0-115
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    配置hosts

    cat >> /etc/hosts<<EOF
    192.168.0.113 k8s-master-168-0-113
    192.168.0.114 k8s-node1-168-0-114
    192.168.0.115 k8s-node2-168-0-115
    EOF
    
    • 1
    • 2
    • 3
    • 4
    • 5

    2、配置ssh互信

    # 直接一直回车就行
    ssh-keygen
    
    ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-master-168-0-113
    ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-node1-168-0-114
    ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-node2-168-0-115
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    3、时间同步

    yum install chrony -y
    systemctl start chronyd
    systemctl enable chronyd
    chronyc sources
    
    • 1
    • 2
    • 3
    • 4

    7、关闭防火墙

    systemctl stop firewalld
    systemctl disable firewalld
    
    • 1
    • 2

    4、关闭swap

    # 临时关闭;关闭swap主要是为了性能考虑
    swapoff -a
    # 可以通过这个命令查看swap是否关闭了
    free
    # 永久关闭        
    sed -ri 's/.*swap.*/#&/' /etc/fstab
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    5、禁用SELinux

    # 临时关闭
    setenforce 0
    # 永久禁用
    sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config
    
    • 1
    • 2
    • 3
    • 4

    6、允许 iptables 检查桥接流量(可选,所有节点)

    若要显式加载此模块,请运行 sudo modprobe br_netfilter,通过运行 lsmod | grep br_netfilter 来验证 br_netfilter 模块是否已加载,

    sudo modprobe br_netfilter
    lsmod | grep br_netfilter
    
    • 1
    • 2

    为了让 Linux 节点的 iptables 能够正确查看桥接流量,请确认 sysctl 配置中的 net.bridge.bridge-nf-call-iptables 设置为 1。 例如:

    cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
    overlay
    br_netfilter
    EOF
    
    sudo modprobe overlay
    sudo modprobe br_netfilter
    
    # 设置所需的 sysctl 参数,参数在重新启动后保持不变
    cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
    net.bridge.bridge-nf-call-iptables  = 1
    net.bridge.bridge-nf-call-ip6tables = 1
    net.ipv4.ip_forward                 = 1
    EOF
    
    # 应用 sysctl 参数而不重新启动
    sudo sysctl --system
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    2)安装容器docker(所有节点)

    提示:v1.24 之前的 Kubernetes 版本包括与 Docker Engine 的直接集成,使用名为 dockershim 的组件。 这种特殊的直接整合不再是 Kubernetes 的一部分 (这次删除被作为 v1.20 发行版本的一部分宣布)。 你可以阅读检查 Dockershim 弃用是否会影响你 以了解此删除可能会如何影响你。 要了解如何使用 dockershim 进行迁移,请参阅从 dockershim 迁移

    # 配置yum源
    cd /etc/yum.repos.d ; mkdir bak; mv CentOS-Linux-* bak/
    # centos7
    wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
    # centos8
    wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-8.repo
    
    # 安装yum-config-manager配置工具
    yum -y install yum-utils
    # 设置yum源
    yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
    # 安装docker-ce版本
    yum install -y docker-ce
    # 启动
    systemctl start docker
    # 开机自启
    systemctl enable docker
    # 查看版本号
    docker --version
    # 查看版本具体信息
    docker version
    
    # Docker镜像源设置
    # 修改文件 /etc/docker/daemon.json,没有这个文件就创建
    # 添加以下内容后,重启docker服务:
    cat >/etc/docker/daemon.json<<EOF
    {
       "registry-mirrors": ["http://hub-mirror.c.163.com"]
    }
    EOF
    # 加载
    systemctl reload docker
    
    # 查看
    systemctl status docker containerd
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35

    【温馨提示】dockerd实际真实调用的还是containerd的api接口,containerd是dockerd和runC之间的一个中间交流组件。所以启动docker服务的时候,也会启动containerd服务的。

    3)配置k8s yum源(所有节点)

    cat > /etc/yum.repos.d/kubernetes.repo << EOF
    [k8s]
    name=k8s
    enabled=1
    gpgcheck=0
    baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
    EOF
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    4)将 sandbox_image 镜像源设置为阿里云google_containers镜像源(所有节点)

    # 导出默认配置,config.toml这个文件默认是不存在的
    containerd config default > /etc/containerd/config.toml
    grep sandbox_image  /etc/containerd/config.toml
    sed -i "s#k8s.gcr.io/pause#registry.aliyuncs.com/google_containers/pause#g"       /etc/containerd/config.toml
    grep sandbox_image  /etc/containerd/config.toml
    
    • 1
    • 2
    • 3
    • 4
    • 5

    在这里插入图片描述

    5)配置containerd cgroup 驱动程序systemd(所有节点)

    kubernets自v1.24.0后,就不再使用docker.shim,替换采用containerd作为容器运行时端点。因此需要安装containerd(在docker的基础下安装),上面安装docker的时候就自动安装了containerd了。这里的docker只是作为客户端而已。容器引擎还是containerd。

    sed -i 's#SystemdCgroup = false#SystemdCgroup = true#g' /etc/containerd/config.toml
    # 应用所有更改后,重新启动containerd
    systemctl restart containerd
    
    • 1
    • 2
    • 3

    6)开始安装kubeadm,kubelet和kubectl(master节点)

    # 不指定版本就是最新版本,当前最新版就是1.24.1
    yum install -y kubelet-1.24.1  kubeadm-1.24.1  kubectl-1.24.1 --disableexcludes=kubernetes
    # disableexcludes=kubernetes:禁掉除了这个kubernetes之外的别的仓库
    # 设置为开机自启并现在立刻启动服务 --now:立刻启动服务
    systemctl enable --now kubelet
    
    # 查看状态,这里需要等待一段时间再查看服务状态,启动会有点慢
    systemctl status kubelet
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    在这里插入图片描述

    查看日志,发现有报错,报错如下:

    kubelet.service: Main process exited, code=exited, status=1/FAILURE kubelet.service: Failed with result 'exit-code'.

    在这里插入图片描述

    【解释】重新安装(或第一次安装)k8s,未经过kubeadm init 或者 kubeadm join后,kubelet会不断重启,这个是正常现象……,执行init或join后问题会自动解决,对此官网有如下描述,也就是此时不用理会kubelet.service。

    查看版本

    kubectl version
    yum info kubeadm
    
    • 1
    • 2

    在这里插入图片描述

    7)使用 kubeadm 初始化集群(master节点)

    最好提前把镜像下载好,这样安装快

    docker pull registry.aliyuncs.com/google_containers/kube-apiserver:v1.24.1
    docker pull registry.aliyuncs.com/google_containers/kube-controller-manager:v1.24.1
    docker pull registry.aliyuncs.com/google_containers/kube-scheduler:v1.24.1
    docker pull registry.aliyuncs.com/google_containers/kube-proxy:v1.24.1
    docker pull registry.aliyuncs.com/google_containers/pause:3.7
    docker pull registry.aliyuncs.com/google_containers/etcd:3.5.3-0
    docker pull registry.aliyuncs.com/google_containers/coredns:v1.8.6
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    集群初始化

    kubeadm init \
      --apiserver-advertise-address=192.168.0.113 \
      --image-repository registry.aliyuncs.com/google_containers \
      --control-plane-endpoint=cluster-endpoint \
      --kubernetes-version v1.24.1 \
      --service-cidr=10.1.0.0/16 \
      --pod-network-cidr=10.244.0.0/16 \
      --v=5
    # –image-repository string:    这个用于指定从什么位置来拉取镜像(1.13版本才有的),默认值是k8s.gcr.io,我们将其指定为国内镜像地址:registry.aliyuncs.com/google_containers
    # –kubernetes-version string:  指定kubenets版本号,默认值是stable-1,会导致从https://dl.k8s.io/release/stable-1.txt下载最新的版本号,我们可以将其指定为固定版本(v1.22.1)来跳过网络请求。
    # –apiserver-advertise-address  指明用 Master 的哪个 interface 与 Cluster 的其他节点通信。如果 Master 有多个 interface,建议明确指定,如果不指定,kubeadm 会自动选择有默认网关的 interface。这里的ip为master节点ip,记得更换。
    # –pod-network-cidr             指定 Pod 网络的范围。Kubernetes 支持多种网络方案,而且不同网络方案对  –pod-network-cidr有自己的要求,这里设置为10.244.0.0/16 是因为我们将使用 flannel 网络方案,必须设置成这个 CIDR。
    # --control-plane-endpoint     cluster-endpoint 是映射到该 IP 的自定义 DNS 名称,这里配置hosts映射:192.168.0.113   cluster-endpoint。 这将允许你将 --control-plane-endpoint=cluster-endpoint 传递给 kubeadm init,并将相同的 DNS 名称传递给 kubeadm join。 稍后你可以修改 cluster-endpoint 以指向高可用性方案中的负载均衡器的地址。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    【温馨提示】kubeadm 不支持将没有 --control-plane-endpoint 参数的单个控制平面集群转换为高可用性集群。

    发现报错了,报错如下:

    [init] Using Kubernetes version: v1.24.1
    [preflight] Running pre-flight checks
    [WARNING FileExisting-tc]: tc not found in system path
    error execution phase preflight: [preflight] Some fatal errors occurred:
    [ERROR CRI]: container runtime is not running: output: E0625 11:15:44.530230 33147 remote_runtime.go:925] “Status from runtime service failed” err=“rpc error: code = Unimplemented desc = unknown service runtime.v1alpha2.RuntimeService”
    time=“2022-06-25T11:15:44+08:00” level=fatal msg=“getting status of runtime: rpc error: code = Unimplemented desc = unknown service runtime.v1alpha2.RuntimeService”
    , error: exit status 1
    [preflight] If you know what you are doing, you can make a check non-fatal with --ignore-preflight-errors=...
    To see the stack trace of this error execute with --v=5 or higher

    在这里插入图片描述
    【解决】

    rm -f /etc/containerd/config.toml 
    systemctl restart containerd
    
    • 1
    • 2

    重置再初始化

    kubeadm reset
    rm -fr ~/.kube/  /etc/kubernetes/* var/lib/etcd/*
    kubeadm init \
      --apiserver-advertise-address=192.168.0.113  \
      --image-repository registry.aliyuncs.com/google_containers \
      --control-plane-endpoint=cluster-endpoint \
      --kubernetes-version v1.24.1 \
      --service-cidr=10.1.0.0/16 \
      --pod-network-cidr=10.244.0.0/16 \
      --v=5
    # –image-repository string:    这个用于指定从什么位置来拉取镜像(1.13版本才有的),默认值是k8s.gcr.io,我们将其指定为国内镜像地址:registry.aliyuncs.com/google_containers
    # –kubernetes-version string:  指定kubenets版本号,默认值是stable-1,会导致从https://dl.k8s.io/release/stable-1.txt下载最新的版本号,我们可以将其指定为固定版本(v1.22.1)来跳过网络请求。
    # –apiserver-advertise-address  指明用 Master 的哪个 interface 与 Cluster 的其他节点通信。如果 Master 有多个 interface,建议明确指定,如果不指定,kubeadm 会自动选择有默认网关的 interface。这里的ip为master节点ip,记得更换。
    # –pod-network-cidr             指定 Pod 网络的范围。Kubernetes 支持多种网络方案,而且不同网络方案对  –pod-network-cidr有自己的要求,这里设置为10.244.0.0/16 是因为我们将使用 flannel 网络方案,必须设置成这个 CIDR。
    # --control-plane-endpoint     cluster-endpoint 是映射到该 IP 的自定义 DNS 名称,这里配置hosts映射:192.168.0.113   cluster-endpoint。 这将允许你将 --control-plane-endpoint=cluster-endpoint 传递给 kubeadm init,并将相同的 DNS 名称传递给 kubeadm join。 稍后你可以修改 cluster-endpoint 以指向高可用性方案中的负载均衡器的地址。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15

    配置环境变量

    mkdir -p $HOME/.kube
    sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
    sudo chown $(id -u):$(id -g) $HOME/.kube/config
    
    # 临时生效(退出当前窗口重连环境变量失效)
    export KUBECONFIG=/etc/kubernetes/admin.conf
    # 永久生效(推荐)
    echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile
    source  ~/.bash_profile
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    在这里插入图片描述
    发现节点还是有问题,查看日志 /var/log/messages

    "Container runtime network not ready" networkReady="NetworkReady=false reason:NetworkPluginNotReady message:Network plugin returns error: cni plugin not initialized"

    在这里插入图片描述
    接下来就是安装Pod网络插件

    8)安装Pod网络插件(CNI:Container Network Interface)(master)

    你必须部署一个基于 Pod 网络插件的 容器网络接口 (CNI),以便你的 Pod 可以相互通信。

    # 最好提前下载镜像(所有节点)
    docker pull quay.io/coreos/flannel:v0.14.0
    kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
    
    • 1
    • 2
    • 3

    如果上面安装失败,则下载我百度里的,离线安装

    链接:https://pan.baidu.com/s/1HB9xuO3bssAW7v5HzpXkeQ
    提取码:8888

    再查看node节点,就已经正常了
    在这里插入图片描述

    9)node节点加入k8s集群

    先安装kubelet

    yum install -y kubelet kubeadm kubectl --disableexcludes=kubernetes
    # 设置为开机自启并现在立刻启动服务 --now:立刻启动服务
    systemctl enable --now kubelet
    systemctl status kubelet
    
    • 1
    • 2
    • 3
    • 4

    如果没有令牌,可以通过在控制平面节点上运行以下命令来获取令牌:

    kubeadm token list
    
    • 1

    默认情况下,令牌会在24小时后过期。如果要在当前令牌过期后将节点加入集群, 则可以通过在控制平面节点上运行以下命令来创建新令牌:

    kubeadm token create
    # 再查看
    kubeadm token list
    
    • 1
    • 2
    • 3

    如果你没有 –discovery-token-ca-cert-hash 的值,则可以通过在控制平面节点上执行以下命令链来获取它:

    openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'
    
    • 1

    如果执行kubeadm init时没有记录下加入集群的命令,可以通过以下命令重新创建(推荐)一般不用上面的分别获取token和ca-cert-hash方式,执行以下命令一气呵成:

    kubeadm token create --print-join-command
    
    • 1

    这里需要等待一段时间,再查看节点节点状态,因为需要安装kube-proxy和flannel。

    kubectl get pods -A
    kubectl get nodes
    
    • 1
    • 2

    在这里插入图片描述

    10)集群高可用配置

    配置高可用(HA)Kubernetes 集群实现的两种方案:

    • 使用堆叠(stacked)控制平面节点,其中 etcd 节点与控制平面节点共存(本章使用),架构图如下:
      在这里插入图片描述
    • 使用外部 etcd 节点,其中 etcd 在与控制平面不同的节点上运行,架构图如下:
      在这里插入图片描述
      这里新增一台机器作为另外一个master节点:192.168.0.116
      配置跟上面master节点一样。只是不需要最后一步初始化了。

    1、修改主机名和配置hosts

    所有节点都统一如下配置:

    # 在192.168.0.113执行
    hostnamectl set-hostname  k8s-master-168-0-113
    # 在192.168.0.114执行
    hostnamectl set-hostname k8s-node1-168-0-114
    # 在192.168.0.115执行
    hostnamectl set-hostname k8s-node2-168-0-115
    # 在192.168.0.116执行
    hostnamectl set-hostname k8s-master2-168-0-116
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    配置hosts

    cat >> /etc/hosts<<EOF
    192.168.0.113 k8s-master-168-0-113 cluster-endpoint
    192.168.0.114 k8s-node1-168-0-114
    192.168.0.115 k8s-node2-168-0-115
    192.168.0.116 k8s-master2-168-0-116
    EOF
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    2、配置ssh互信

    # 直接一直回车就行
    ssh-keygen
    
    ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-master-168-0-113
    ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-node1-168-0-114
    ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-node2-168-0-115
    ssh-copy-id -i ~/.ssh/id_rsa.pub root@k8s-master2-168-0-116
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    3、时间同步

    yum install chrony -y
    systemctl start chronyd
    systemctl enable chronyd
    chronyc sources
    
    • 1
    • 2
    • 3
    • 4

    7、关闭防火墙

    systemctl stop firewalld
    systemctl disable firewalld
    
    • 1
    • 2

    4、关闭swap

    # 临时关闭;关闭swap主要是为了性能考虑
    swapoff -a
    # 可以通过这个命令查看swap是否关闭了
    free
    # 永久关闭        
    sed -ri 's/.*swap.*/#&/' /etc/fstab
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    5、禁用SELinux

    # 临时关闭
    setenforce 0
    # 永久禁用
    sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config
    
    • 1
    • 2
    • 3
    • 4

    6、允许 iptables 检查桥接流量(可选,所有节点)

    若要显式加载此模块,请运行 sudo modprobe br_netfilter,通过运行 lsmod | grep br_netfilter 来验证 br_netfilter 模块是否已加载,

    sudo modprobe br_netfilter
    lsmod | grep br_netfilter
    
    • 1
    • 2

    为了让 Linux 节点的 iptables 能够正确查看桥接流量,请确认 sysctl 配置中的 net.bridge.bridge-nf-call-iptables 设置为 1。 例如:

    cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
    overlay
    br_netfilter
    EOF
    
    sudo modprobe overlay
    sudo modprobe br_netfilter
    
    # 设置所需的 sysctl 参数,参数在重新启动后保持不变
    cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
    net.bridge.bridge-nf-call-iptables  = 1
    net.bridge.bridge-nf-call-ip6tables = 1
    net.ipv4.ip_forward                 = 1
    EOF
    
    # 应用 sysctl 参数而不重新启动
    sudo sysctl --system
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    7、安装容器docker(所有节点)

    提示:v1.24 之前的 Kubernetes 版本包括与 Docker Engine 的直接集成,使用名为 dockershim 的组件。 这种特殊的直接整合不再是 Kubernetes 的一部分 (这次删除被作为 v1.20 发行版本的一部分宣布)。 你可以阅读检查 Dockershim 弃用是否会影响你 以了解此删除可能会如何影响你。 要了解如何使用 dockershim 进行迁移,请参阅从 dockershim 迁移

    # 配置yum源
    cd /etc/yum.repos.d ; mkdir bak; mv CentOS-Linux-* bak/
    # centos7
    wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
    # centos8
    wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-8.repo
    
    # 安装yum-config-manager配置工具
    yum -y install yum-utils
    # 设置yum源
    yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
    # 安装docker-ce版本
    yum install -y docker-ce
    # 启动
    systemctl start docker
    # 开机自启
    systemctl enable docker
    # 查看版本号
    docker --version
    # 查看版本具体信息
    docker version
    
    # Docker镜像源设置
    # 修改文件 /etc/docker/daemon.json,没有这个文件就创建
    # 添加以下内容后,重启docker服务:
    cat >/etc/docker/daemon.json<<EOF
    {
       "registry-mirrors": ["http://hub-mirror.c.163.com"]
    }
    EOF
    # 加载
    systemctl reload docker
    
    # 查看
    systemctl status docker containerd
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35

    【温馨提示】dockerd实际真实调用的还是containerd的api接口,containerd是dockerd和runC之间的一个中间交流组件。所以启动docker服务的时候,也会启动containerd服务的。

    8、配置k8s yum源(所有节点)

    cat > /etc/yum.repos.d/kubernetes.repo << EOF
    [k8s]
    name=k8s
    enabled=1
    gpgcheck=0
    baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
    EOF
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    9、将 sandbox_image 镜像源设置为阿里云google_containers镜像源(所有节点)

    # 导出默认配置,config.toml这个文件默认是不存在的
    containerd config default > /etc/containerd/config.toml
    grep sandbox_image  /etc/containerd/config.toml
    sed -i "s#k8s.gcr.io/pause#registry.aliyuncs.com/google_containers/pause#g"       /etc/containerd/config.toml
    grep sandbox_image  /etc/containerd/config.toml
    
    • 1
    • 2
    • 3
    • 4
    • 5

    在这里插入图片描述

    10、配置containerd cgroup 驱动程序systemd

    kubernets自v1.24.0后,就不再使用docker.shim,替换采用containerd作为容器运行时端点。因此需要安装containerd(在docker的基础下安装),上面安装docker的时候就自动安装了containerd了。这里的docker只是作为客户端而已。容器引擎还是containerd。

    sed -i 's#SystemdCgroup = false#SystemdCgroup = true#g' /etc/containerd/config.toml
    # 应用所有更改后,重新启动containerd
    systemctl restart containerd
    
    • 1
    • 2
    • 3

    11、开始安装kubeadm,kubelet和kubectl(master节点)

    # 不指定版本就是最新版本,当前最新版就是1.24.1
    yum install -y kubelet-1.24.1  kubeadm-1.24.1  kubectl-1.24.1 --disableexcludes=kubernetes
    # disableexcludes=kubernetes:禁掉除了这个kubernetes之外的别的仓库
    # 设置为开机自启并现在立刻启动服务 --now:立刻启动服务
    systemctl enable --now kubelet
    
    # 查看状态,这里需要等待一段时间再查看服务状态,启动会有点慢
    systemctl status kubelet
    
    # 查看版本
    
    kubectl version
    yum info kubeadm
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    12、加入k8s集群

    # 证如果过期了,可以使用下面命令生成新证书上传,这里会打印出certificate key,后面会用到
    kubeadm init phase upload-certs --upload-certs
    # 你还可以在 【init】期间指定自定义的 --certificate-key,以后可以由 join 使用。 要生成这样的密钥,可以使用以下命令(这里不执行,就用上面那个自命令就可以了):
    kubeadm certs certificate-key
    
    kubeadm token create --print-join-command
    
    kubeadm join cluster-endpoint:6443 --token wswrfw.fc81au4yvy6ovmhh --discovery-token-ca-cert-hash sha256:43a3924c25104d4393462105639f6a02b8ce284728775ef9f9c30eed8e0abc0f --control-plane --certificate-key 8d2709697403b74e35d05a420bd2c19fd8c11914eb45f2ff22937b245bed5b68
    
    # --control-plane 标志通知 kubeadm join 创建一个新的控制平面。加入master必须加这个标记
    # --certificate-key ... 将导致从集群中的 kubeadm-certs Secret 下载控制平面证书并使用给定的密钥进行解密。这里的值就是上面这个命令(kubeadm init phase upload-certs --upload-certs)打印出的key。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    在这里插入图片描述
    根据提示执行如下命令:

    mkdir -p $HOME/.kube
    sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
    sudo chown $(id -u):$(id -g) $HOME/.kube/config
    
    • 1
    • 2
    • 3

    查看

    kubectl get nodes
    kubectl get pods -A -owide
    
    • 1
    • 2

    在这里插入图片描述
    虽然现在已经有两个master了,但是对外还是只能有一个入口的,所以还得要一个负载均衡器,如果一个master挂了,会自动切到另外一个master节点。

    11)部署Nginx+Keepalived高可用负载均衡器

    在这里插入图片描述

    1、安装Nginx和Keepalived

    # 在两个master节点上执行
    yum install nginx keepalived -y
    
    • 1
    • 2

    2、Nginx配置

    在两个master节点配置

    cat > /etc/nginx/nginx.conf << "EOF"
    user nginx;
    worker_processes auto;
    error_log /var/log/nginx/error.log;
    pid /run/nginx.pid;
    include /usr/share/nginx/modules/*.conf;
    events {
        worker_connections 1024;
    }
    # 四层负载均衡,为两台Master apiserver组件提供负载均衡
    stream {
        log_format  main  '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent';
        access_log  /var/log/nginx/k8s-access.log  main;
        upstream k8s-apiserver {
    	   # Master APISERVER IP:PORT
           server 192.168.0.113:6443;
    	   # Master2 APISERVER IP:PORT
           server 192.168.0.116:6443;
        }
        server {
           listen 16443;
           proxy_pass k8s-apiserver;
        }
    }
    
    http {
        log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                          '$status $body_bytes_sent "$http_referer" '
                          '"$http_user_agent" "$http_x_forwarded_for"';
        access_log  /var/log/nginx/access.log  main;
        sendfile            on;
        tcp_nopush          on;
        tcp_nodelay         on;
        keepalive_timeout   65;
        types_hash_max_size 2048;
        include             /etc/nginx/mime.types;
        default_type        application/octet-stream;
        server {
            listen       80 default_server;
            server_name  _;
    
            location / {
            }
        }
    }
    EOF
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46

    【温馨提示】如果只保证高可用,不配置k8s-apiserver负载均衡的话,可以不装nginx,但是最好还是配置一下k8s-apiserver负载均衡。

    3、Keepalived配置(master)

    cat > /etc/keepalived/keepalived.conf << EOF
    global_defs {
       notification_email {
         acassen@firewall.loc
         failover@firewall.loc
         sysadmin@firewall.loc
       }
       notification_email_from fage@qq.com
       smtp_server 127.0.0.1
       smtp_connect_timeout 30
       router_id NGINX_MASTER
    }
    vrrp_script check_nginx {
        script "/etc/keepalived/check_nginx.sh"
    }
    vrrp_instance VI_1 {
        state MASTER
        interface ens33
        virtual_router_id 51 # VRRP 路由 ID实例,每个实例是唯一的
        priority 100    # 优先级,备服务器设置 90
        advert_int 1    # 指定VRRP 心跳包通告间隔时间,默认1秒
        authentication {
            auth_type PASS
            auth_pass 1111
        }
        # 虚拟IP
        virtual_ipaddress {
            192.168.0.120/24
        }
        track_script {
            check_nginx
        }
    }
    EOF
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • vrrp_script:指定检查nginx工作状态脚本(根据nginx状态判断是否故障转移)
    • virtual_ipaddress:虚拟IP(VIP)

    检查nginx状态脚本:

    cat > /etc/keepalived/check_nginx.sh  << "EOF"
    #!/bin/bash
    count=$(ps -ef |grep nginx |egrep -cv "grep|$$")
    
    if [ "$count" -eq 0 ];then
        exit 1
    else
        exit 0
    fi
    EOF
    chmod +x /etc/keepalived/check_nginx.sh
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    4、Keepalived配置(backup)

    cat > /etc/keepalived/keepalived.conf << EOF
    global_defs {
       notification_email {
         acassen@firewall.loc
         failover@firewall.loc
         sysadmin@firewall.loc
       }
       notification_email_from fage@qq.com
       smtp_server 127.0.0.1
       smtp_connect_timeout 30
       router_id NGINX_BACKUP
    }
    vrrp_script check_nginx {
        script "/etc/keepalived/check_nginx.sh"
    }
    vrrp_instance VI_1 {
        state BACKUP
        interface ens33
        virtual_router_id 51 # VRRP 路由 ID实例,每个实例是唯一的
        priority 90
        advert_int 1
        authentication {
            auth_type PASS
            auth_pass 1111
        }
        virtual_ipaddress {
            192.168.0.120/24
        }
        track_script {
            check_nginx
        }
    }
    EOF
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33

    检查nginx状态脚本:

    cat > /etc/keepalived/check_nginx.sh  << "EOF"
    #!/bin/bash
    count=$(ps -ef |grep nginx |egrep -cv "grep|$$")
    
    if [ "$count" -eq 0 ];then
        exit 1
    else
        exit 0
    fi
    EOF
    chmod +x /etc/keepalived/check_nginx.sh
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    5、启动并设置开机启动

    systemctl daemon-reload
    systemctl restart nginx && systemctl enable nginx && systemctl status nginx
    systemctl restart keepalived && systemctl enable keepalived && systemctl status keepalived
    
    • 1
    • 2
    • 3

    查看VIP

    ip a
    
    • 1

    在这里插入图片描述

    6、修改hosts(所有节点)

    将cluster-endpoint之前执行的ip修改执行现在的VIP

    192.168.0.113 k8s-master-168-0-113
    192.168.0.114 k8s-node1-168-0-114
    192.168.0.115 k8s-node2-168-0-115
    192.168.0.116 k8s-master2-168-0-116
    192.168.0.120 cluster-endpoint
    
    • 1
    • 2
    • 3
    • 4
    • 5

    7、测试验证

    查看版本(负载均衡测试验证)

    curl -k https://cluster-endpoint:16443/version
    
    • 1

    在这里插入图片描述
    高可用测试验证,将k8s-master-168-0-113节点关机

    shutdown -h now
    curl -k https://cluster-endpoint:16443/version
    kubectl get nodes -A
    kubectl get pods -A
    
    • 1
    • 2
    • 3
    • 4

    【温馨提示】堆叠集群存在耦合失败的风险。如果一个节点发生故障,则 etcd 成员和控制平面实例都将丢失, 并且冗余会受到影响。你可以通过添加更多控制平面节点来降低此风险。

    三、k8s管理平台dashboard环境部署

    1)dashboard部署

    GitHub地址:https://github.com/kubernetes/dashboard

    kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.6.0/aio/deploy/recommended.yaml
    kubectl get pods -n kubernetes-dashboard
    
    • 1
    • 2

    但是这个只能内部访问,所以要外部访问,要么部署ingress,要么就是设置service NodePort类型。这里选择service暴露端口。

    wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.6.0/aio/deploy/recommended.yaml
    
    • 1

    修改后的内容如下:

    # Copyright 2017 The Kubernetes Authors.
    #
    # Licensed under the Apache License, Version 2.0 (the "License");
    # you may not use this file except in compliance with the License.
    # You may obtain a copy of the License at
    #
    #     http://www.apache.org/licenses/LICENSE-2.0
    #
    # Unless required by applicable law or agreed to in writing, software
    # distributed under the License is distributed on an "AS IS" BASIS,
    # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
    # See the License for the specific language governing permissions and
    # limitations under the License.
    
    apiVersion: v1
    kind: Namespace
    metadata:
      name: kubernetes-dashboard
    
    ---
    
    apiVersion: v1
    kind: ServiceAccount
    metadata:
      labels:
        k8s-app: kubernetes-dashboard
      name: kubernetes-dashboard
      namespace: kubernetes-dashboard
    
    ---
    
    kind: Service
    apiVersion: v1
    metadata:
      labels:
        k8s-app: kubernetes-dashboard
      name: kubernetes-dashboard
      namespace: kubernetes-dashboard
    spec:
      type: NodePort
      ports:
        - port: 443
          targetPort: 8443
          nodePort: 31443
      selector:
        k8s-app: kubernetes-dashboard
    
    ---
    
    apiVersion: v1
    kind: Secret
    metadata:
      labels:
        k8s-app: kubernetes-dashboard
      name: kubernetes-dashboard-certs
      namespace: kubernetes-dashboard
    type: Opaque
    
    ---
    
    apiVersion: v1
    kind: Secret
    metadata:
      labels:
        k8s-app: kubernetes-dashboard
      name: kubernetes-dashboard-csrf
      namespace: kubernetes-dashboard
    type: Opaque
    data:
      csrf: ""
    
    ---
    
    apiVersion: v1
    kind: Secret
    metadata:
      labels:
        k8s-app: kubernetes-dashboard
      name: kubernetes-dashboard-key-holder
      namespace: kubernetes-dashboard
    type: Opaque
    
    ---
    
    kind: ConfigMap
    apiVersion: v1
    metadata:
      labels:
        k8s-app: kubernetes-dashboard
      name: kubernetes-dashboard-settings
      namespace: kubernetes-dashboard
    
    ---
    
    kind: Role
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      labels:
        k8s-app: kubernetes-dashboard
      name: kubernetes-dashboard
      namespace: kubernetes-dashboard
    rules:
      # Allow Dashboard to get, update and delete Dashboard exclusive secrets.
      - apiGroups: [""]
        resources: ["secrets"]
        resourceNames: ["kubernetes-dashboard-key-holder", "kubernetes-dashboard-certs", "kubernetes-dashboard-csrf"]
        verbs: ["get", "update", "delete"]
        # Allow Dashboard to get and update 'kubernetes-dashboard-settings' config map.
      - apiGroups: [""]
        resources: ["configmaps"]
        resourceNames: ["kubernetes-dashboard-settings"]
        verbs: ["get", "update"]
        # Allow Dashboard to get metrics.
      - apiGroups: [""]
        resources: ["services"]
        resourceNames: ["heapster", "dashboard-metrics-scraper"]
        verbs: ["proxy"]
      - apiGroups: [""]
        resources: ["services/proxy"]
        resourceNames: ["heapster", "http:heapster:", "https:heapster:", "dashboard-metrics-scraper", "http:dashboard-metrics-scraper"]
        verbs: ["get"]
    
    ---
    
    kind: ClusterRole
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      labels:
        k8s-app: kubernetes-dashboard
      name: kubernetes-dashboard
    rules:
      # Allow Metrics Scraper to get metrics from the Metrics server
      - apiGroups: ["metrics.k8s.io"]
        resources: ["pods", "nodes"]
        verbs: ["get", "list", "watch"]
    
    ---
    
    apiVersion: rbac.authorization.k8s.io/v1
    kind: RoleBinding
    metadata:
      labels:
        k8s-app: kubernetes-dashboard
      name: kubernetes-dashboard
      namespace: kubernetes-dashboard
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: Role
      name: kubernetes-dashboard
    subjects:
      - kind: ServiceAccount
        name: kubernetes-dashboard
        namespace: kubernetes-dashboard
    
    ---
    
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: kubernetes-dashboard
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: kubernetes-dashboard
    subjects:
      - kind: ServiceAccount
        name: kubernetes-dashboard
        namespace: kubernetes-dashboard
    
    ---
    
    kind: Deployment
    apiVersion: apps/v1
    metadata:
      labels:
        k8s-app: kubernetes-dashboard
      name: kubernetes-dashboard
      namespace: kubernetes-dashboard
    spec:
      replicas: 1
      revisionHistoryLimit: 10
      selector:
        matchLabels:
          k8s-app: kubernetes-dashboard
      template:
        metadata:
          labels:
            k8s-app: kubernetes-dashboard
        spec:
          securityContext:
            seccompProfile:
              type: RuntimeDefault
          containers:
            - name: kubernetes-dashboard
              image: kubernetesui/dashboard:v2.6.0
              imagePullPolicy: Always
              ports:
                - containerPort: 8443
                  protocol: TCP
              args:
                - --auto-generate-certificates
                - --namespace=kubernetes-dashboard
                # Uncomment the following line to manually specify Kubernetes API server Host
                # If not specified, Dashboard will attempt to auto discover the API server and connect
                # to it. Uncomment only if the default does not work.
                # - --apiserver-host=http://my-address:port
              volumeMounts:
                - name: kubernetes-dashboard-certs
                  mountPath: /certs
                  # Create on-disk volume to store exec logs
                - mountPath: /tmp
                  name: tmp-volume
              livenessProbe:
                httpGet:
                  scheme: HTTPS
                  path: /
                  port: 8443
                initialDelaySeconds: 30
                timeoutSeconds: 30
              securityContext:
                allowPrivilegeEscalation: false
                readOnlyRootFilesystem: true
                runAsUser: 1001
                runAsGroup: 2001
          volumes:
            - name: kubernetes-dashboard-certs
              secret:
                secretName: kubernetes-dashboard-certs
            - name: tmp-volume
              emptyDir: {}
          serviceAccountName: kubernetes-dashboard
          nodeSelector:
            "kubernetes.io/os": linux
          # Comment the following tolerations if Dashboard must not be deployed on master
          tolerations:
            - key: node-role.kubernetes.io/master
              effect: NoSchedule
    
    ---
    
    kind: Service
    apiVersion: v1
    metadata:
      labels:
        k8s-app: dashboard-metrics-scraper
      name: dashboard-metrics-scraper
      namespace: kubernetes-dashboard
    spec:
      ports:
        - port: 8000
          targetPort: 8000
      selector:
        k8s-app: dashboard-metrics-scraper
    
    ---
    
    kind: Deployment
    apiVersion: apps/v1
    metadata:
      labels:
        k8s-app: dashboard-metrics-scraper
      name: dashboard-metrics-scraper
      namespace: kubernetes-dashboard
    spec:
      replicas: 1
      revisionHistoryLimit: 10
      selector:
        matchLabels:
          k8s-app: dashboard-metrics-scraper
      template:
        metadata:
          labels:
            k8s-app: dashboard-metrics-scraper
        spec:
          securityContext:
            seccompProfile:
              type: RuntimeDefault
          containers:
            - name: dashboard-metrics-scraper
              image: kubernetesui/metrics-scraper:v1.0.8
              ports:
                - containerPort: 8000
                  protocol: TCP
              livenessProbe:
                httpGet:
                  scheme: HTTP
                  path: /
                  port: 8000
                initialDelaySeconds: 30
                timeoutSeconds: 30
              volumeMounts:
              - mountPath: /tmp
                name: tmp-volume
              securityContext:
                allowPrivilegeEscalation: false
                readOnlyRootFilesystem: true
                runAsUser: 1001
                runAsGroup: 2001
          serviceAccountName: kubernetes-dashboard
          nodeSelector:
            "kubernetes.io/os": linux
          # Comment the following tolerations if Dashboard must not be deployed on master
          tolerations:
            - key: node-role.kubernetes.io/master
              effect: NoSchedule
          volumes:
            - name: tmp-volume
              emptyDir: {}
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75
    • 76
    • 77
    • 78
    • 79
    • 80
    • 81
    • 82
    • 83
    • 84
    • 85
    • 86
    • 87
    • 88
    • 89
    • 90
    • 91
    • 92
    • 93
    • 94
    • 95
    • 96
    • 97
    • 98
    • 99
    • 100
    • 101
    • 102
    • 103
    • 104
    • 105
    • 106
    • 107
    • 108
    • 109
    • 110
    • 111
    • 112
    • 113
    • 114
    • 115
    • 116
    • 117
    • 118
    • 119
    • 120
    • 121
    • 122
    • 123
    • 124
    • 125
    • 126
    • 127
    • 128
    • 129
    • 130
    • 131
    • 132
    • 133
    • 134
    • 135
    • 136
    • 137
    • 138
    • 139
    • 140
    • 141
    • 142
    • 143
    • 144
    • 145
    • 146
    • 147
    • 148
    • 149
    • 150
    • 151
    • 152
    • 153
    • 154
    • 155
    • 156
    • 157
    • 158
    • 159
    • 160
    • 161
    • 162
    • 163
    • 164
    • 165
    • 166
    • 167
    • 168
    • 169
    • 170
    • 171
    • 172
    • 173
    • 174
    • 175
    • 176
    • 177
    • 178
    • 179
    • 180
    • 181
    • 182
    • 183
    • 184
    • 185
    • 186
    • 187
    • 188
    • 189
    • 190
    • 191
    • 192
    • 193
    • 194
    • 195
    • 196
    • 197
    • 198
    • 199
    • 200
    • 201
    • 202
    • 203
    • 204
    • 205
    • 206
    • 207
    • 208
    • 209
    • 210
    • 211
    • 212
    • 213
    • 214
    • 215
    • 216
    • 217
    • 218
    • 219
    • 220
    • 221
    • 222
    • 223
    • 224
    • 225
    • 226
    • 227
    • 228
    • 229
    • 230
    • 231
    • 232
    • 233
    • 234
    • 235
    • 236
    • 237
    • 238
    • 239
    • 240
    • 241
    • 242
    • 243
    • 244
    • 245
    • 246
    • 247
    • 248
    • 249
    • 250
    • 251
    • 252
    • 253
    • 254
    • 255
    • 256
    • 257
    • 258
    • 259
    • 260
    • 261
    • 262
    • 263
    • 264
    • 265
    • 266
    • 267
    • 268
    • 269
    • 270
    • 271
    • 272
    • 273
    • 274
    • 275
    • 276
    • 277
    • 278
    • 279
    • 280
    • 281
    • 282
    • 283
    • 284
    • 285
    • 286
    • 287
    • 288
    • 289
    • 290
    • 291
    • 292
    • 293
    • 294
    • 295
    • 296
    • 297
    • 298
    • 299
    • 300
    • 301
    • 302
    • 303
    • 304
    • 305
    • 306
    • 307
    • 308
    • 309

    在这里插入图片描述
    重新部署

    kubectl delete -f recommended.yaml
    kubectl apply -f recommended.yaml
    kubectl get svc,pods -n kubernetes-dashboard
    
    • 1
    • 2
    • 3

    在这里插入图片描述

    2)创建登录用户

    cat >ServiceAccount.yaml<<EOF
    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: admin-user
      namespace: kubernetes-dashboard
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: admin-user
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: cluster-admin
    subjects:
    - kind: ServiceAccount
      name: admin-user
      namespace: kubernetes-dashboard
    EOF
    kubectl apply -f ServiceAccount.yaml
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21

    创建并获取登录token

    kubectl -n kubernetes-dashboard create token admin-user
    
    • 1

    3)配置hosts登录dashboard web

    192.168.0.120 cluster-endpoint
    
    • 1

    登录:https://cluster-endpoint:31443
    在这里插入图片描述
    输入上面创建的token登录
    在这里插入图片描述

    四、k8s镜像仓库harbor环境部署

    GitHub地址:https://github.com/helm/helm/releases
    这使用helm安装,所以得先安装helm

    1)安装helm

    mkdir -p /opt/k8s/helm && cd /opt/k8s/helm
    wget https://get.helm.sh/helm-v3.9.0-rc.1-linux-amd64.tar.gz
    tar -xf helm-v3.9.0-rc.1-linux-amd64.tar.gz
    ln -s /opt/k8s/helm/linux-amd64/helm /usr/bin/helm
    helm version
    helm help
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    2)配置hosts

    192.168.0.120 myharbor.com
    
    • 1

    3)创建stl证书

    mkdir /opt/k8s/helm/stl && cd /opt/k8s/helm/stl
    # 生成 CA 证书私钥
    openssl genrsa -out ca.key 4096
    # 生成 CA 证书
    openssl req -x509 -new -nodes -sha512 -days 3650 \
     -subj "/C=CN/ST=Guangdong/L=Shenzhen/O=harbor/OU=harbor/CN=myharbor.com" \
     -key ca.key \
     -out ca.crt
    # 创建域名证书,生成私钥
    openssl genrsa -out myharbor.com.key 4096
    # 生成证书签名请求 CSR
    openssl req -sha512 -new \
        -subj "/C=CN/ST=Guangdong/L=Shenzhen/O=harbor/OU=harbor/CN=myharbor.com" \
        -key myharbor.com.key \
        -out myharbor.com.csr
    # 生成 x509 v3 扩展
    cat > v3.ext <<-EOF
    authorityKeyIdentifier=keyid,issuer
    basicConstraints=CA:FALSE
    keyUsage = digitalSignature, nonRepudiation, keyEncipherment, dataEncipherment
    extendedKeyUsage = serverAuth
    subjectAltName = @alt_names
    
    [alt_names]
    DNS.1=myharbor.com
    DNS.2=*.myharbor.com
    DNS.3=hostname
    EOF
    #创建 Harbor 访问证书
    openssl x509 -req -sha512 -days 3650 \
        -extfile v3.ext \
        -CA ca.crt -CAkey ca.key -CAcreateserial \
        -in myharbor.com.csr \
        -out myharbor.com.crt
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34

    4)安装ingress

    ingress 官方网站:https://kubernetes.github.io/ingress-nginx/
    ingress 仓库地址:https://github.com/kubernetes/ingress-nginx
    部署文档:https://kubernetes.github.io/ingress-nginx/deploy/

    1、通过helm部署

    helm upgrade --install ingress-nginx ingress-nginx \
      --repo https://kubernetes.github.io/ingress-nginx \
      --namespace ingress-nginx --create-namespace
    
    • 1
    • 2
    • 3

    2、通过YAML 文件安装

    kubectl apply -f https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v1.2.0/deploy/static/provider/cloud/deploy.yaml
    
    • 1

    如果下载镜像失败,可以用以下方式修改镜像地址再安装

    # 可以先把镜像下载,再安装
    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/nginx-ingress-controller:v1.2.0
    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-webhook-certgen:v1.1.1
    
    wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v1.2.0/deploy/static/provider/cloud/deploy.yaml
    # 修改镜像地址
    sed -i 's@k8s.gcr.io/ingress-nginx/controller:v1.2.0\(.*\)@registry.cn-hangzhou.aliyuncs.com/google_containers/nginx-ingress-controller:v1.2.0@' deploy.yaml
    sed -i 's@k8s.gcr.io/ingress-nginx/kube-webhook-certgen:v1.1.1\(.*\)$@registry.cn-hangzhou.aliyuncs.com/google_containers/kube-webhook-certgen:v1.1.1@' deploy.yaml
    
    kubectl apply -f deploy.yaml
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    在这里插入图片描述

    5)安装nfs

    1、所有节点安装nfs

    yum -y install  nfs-utils rpcbind
    
    • 1

    2、在master节点创建共享目录并授权

    mkdir /opt/nfsdata
    # 授权共享目录
    chmod 666 /opt/nfsdata
    
    • 1
    • 2
    • 3

    3、配置exports文件

    cat > /etc/exports<<EOF
    /opt/nfsdata *(rw,no_root_squash,no_all_squash,sync)
    EOF
    # 配置生效
    exportfs -r
    
    • 1
    • 2
    • 3
    • 4
    • 5

    exportfs命令

    常用选项
    -a 全部挂载或者全部卸载
    -r 重新挂载
    -u 卸载某一个目录
    -v 显示共享目录 以下操作在服务端上

    4、启动rpc和nfs(客户端只需要启动rpc服务)(注意顺序)

    systemctl start rpcbind
    systemctl start nfs-server
    systemctl enable rpcbind
    systemctl enable nfs-server
    
    • 1
    • 2
    • 3
    • 4

    查看

    showmount -e
    showmount -e 192.168.0.113
    
    • 1
    • 2

    -e 显示NFS服务器的共享列表
    -a 显示本机挂载的文件资源的情况NFS资源的情况
    -v 显示版本号

    5、客户端

    # 安装
    yum -y install  nfs-utils rpcbind
    # 启动rpc服务
    systemctl start rpcbind
    systemctl enable rpcbind
    # 创建挂载目录
    mkdir /mnt/nfsdata
    # 挂载
    echo "192.168.0.113:/opt/nfsdata /mnt/nfsdata     nfs    defaults  0 1">> /etc/fstab
    mount -a
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    6)创建持久化存储SC

    cat << EOF > harbor-sc.yaml
    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: nfs-client-provisioner
      # replace with namespace where provisioner is deployed
      namespace: harbor        #根据实际环境设定namespace,下面类同
    ---
    kind: ClusterRole
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: nfs-client-provisioner-runner
      namespace: harbor
    rules:
      - apiGroups: [""]
        resources: ["persistentvolumes"]
        verbs: ["get", "list", "watch", "create", "delete"]
      - apiGroups: [""]
        resources: ["persistentvolumeclaims"]
        verbs: ["get", "list", "watch", "update"]
      - apiGroups: ["storage.k8s.io"]
        resources: ["storageclasses"]
        verbs: ["get", "list", "watch"]
      - apiGroups: [""]
        resources: ["events"]
        verbs: ["create", "update", "patch"]
    ---
    kind: ClusterRoleBinding
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: run-nfs-client-provisioner
    subjects:
      - kind: ServiceAccount
        name: nfs-client-provisioner
        namespace: harbor
        # replace with namespace where provisioner is deployed
    roleRef:
      kind: ClusterRole
      name: nfs-client-provisioner-runner
      apiGroup: rbac.authorization.k8s.io
    ---
    kind: Role
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: leader-locking-nfs-client-provisioner
      namespace: harbor
        # replace with namespace where provisioner is deployed
    rules:
      - apiGroups: [""]
        resources: ["endpoints"]
        verbs: ["get", "list", "watch", "create", "update", "patch"]
    ---
    kind: RoleBinding
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
      name: leader-locking-nfs-client-provisioner
      namespace: harbor
    subjects:
      - kind: ServiceAccount
        name: nfs-client-provisioner
        # replace with namespace where provisioner is deployed
        namespace: harbor
    roleRef:
      kind: Role
      name: leader-locking-nfs-client-provisioner
      apiGroup: rbac.authorization.k8s.io
    ---
    kind: Deployment
    apiVersion: apps/v1
    metadata:
      name: nfs-client-provisioner
      namespace: harbor
    spec:
      replicas: 1
      strategy:
        type: Recreate
      selector:
        matchLabels:
          app: nfs-client-provisioner
      template:
        metadata:
          labels:
            app: nfs-client-provisioner
        spec:
          serviceAccountName: nfs-client-provisioner
          containers:
            - name: nfs-client-provisioner
              image: quay.io/external_storage/nfs-client-provisioner:latest
              volumeMounts:
                - name: nfs-client-root
                  mountPath: /persistentvolumes #容器内挂载点
              env:
                - name: PROVISIONER_NAME
                  value: fuseim.pri/ifs
                - name: NFS_SERVER
                  value: 192.168.0.113
                - name: NFS_PATH
                  value: /opt/nfsdata
          volumes:
            - name: nfs-client-root #宿主机挂载点
              nfs:
                server: 192.168.0.113
                path: /opt/nfsdata
    ---
    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    metadata:
      name: harbor-nfs-storage
      namespace: harbor
    provisioner: fuseim.pri/ifs  # or choose another name, must match deployment's env PROVISIONER_NAME'
    reclaimPolicy: Retain        #回收策略:Retain(保留)、 Recycle(回收)或者Delete(删除)
    volumeBindingMode: Immediate    #volumeBindingMode存储卷绑定策略
    allowVolumeExpansion: true    #pvc是否允许扩容
    EOF
    kubectl apply -f harbor-sc.yaml
    kubectl get sc,pod -n harbor
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75
    • 76
    • 77
    • 78
    • 79
    • 80
    • 81
    • 82
    • 83
    • 84
    • 85
    • 86
    • 87
    • 88
    • 89
    • 90
    • 91
    • 92
    • 93
    • 94
    • 95
    • 96
    • 97
    • 98
    • 99
    • 100
    • 101
    • 102
    • 103
    • 104
    • 105
    • 106
    • 107
    • 108
    • 109
    • 110
    • 111
    • 112
    • 113
    • 114
    • 115
    • 116

    在这里插入图片描述

    7)部署 Harbor(Https方式)

    1、创建 Namespace

    kubectl create ns harbor
    
    • 1

    2、创建证书秘钥

    kubectl create secret tls myharbor.com --key myharbor.com.key --cert myharbor.com.crt -n harbor
    kubectl get secret myharbor.com -n harbor
    
    • 1
    • 2

    3、添加 Chart 库

    helm repo add harbor https://helm.goharbor.io
    
    • 1

    4、通过helm安装harbor

    helm install myharbor --namespace harbor harbor/harbor \
      --set expose.ingress.hosts.core=myharbor.com \
      --set expose.ingress.hosts.notary=notary.harbor.service.com \
      --set-string expose.ingress.annotations.'nginx\.org/client-max-body-size'="1024m" \
      --set expose.tls.secretName=myharbor.com \
      --set persistence.persistentVolumeClaim.registry.storageClass=harbor-nfs-storage \
      --set persistence.persistentVolumeClaim.jobservice.storageClass=harbor-nfs-storage \
      --set persistence.persistentVolumeClaim.database.storageClass=harbor-nfs-storage \
      --set persistence.persistentVolumeClaim.redis.storageClass=harbor-nfs-storage \
      --set persistence.persistentVolumeClaim.trivy.storageClass=harbor-nfs-storage \
      --set persistence.persistentVolumeClaim.chartmuseum.storageClass=harbor-nfs-storage \
      --set persistence.enabled=true \
      --set externalURL=https://myharbor.com \
      --set harborAdminPassword=Harbor12345
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14

    这里稍等一段时间在查看资源状态

    kubectl get ingress,svc,pods -n harbor
    
    • 1

    查看日志

    kubectl logs -f nfs-client-provisioner-896b55dd9-r8mtr -n harbor
    
    • 1

    在这里插入图片描述

    【pvc问题】Kubernetes v1.20 (opens new window)开始,默认删除了 metadata.selfLink 字段,然而,部分应用仍然依赖于这个字段,例如上面的nfs-deployment-provisioner.yaml。其实上面创建pod是没成功的。报错如下:

    Normal ExternalProvisioning 47s (x19 over 5m6s) persistentvolume-controller waiting for a volume to be created, either by external provisioner "fuseim.pri/ifs" or manually created by system administrator

    【解决】

    通过配置 apiserver 启动参数中的 –feature-gates 中的 RemoveSelfLink=false,可以重新启用 metadata.selfLink 字段。

    修改 /etc/kubernetes/manifests/kube-apiserver.yaml 文件,并在其启动参数中增加一行 - --feature-gates=RemoveSelfLink=false,如下第 43行所示:

    重新加载配置,如果一次未加载成功,多执行几次。

    kubectl apply -f /etc/kubernetes/manifests/kube-apiserver.yaml
    
    • 1

    5、卸载重新部署

    # 卸载
    helm uninstall myharbor -n harbor
    kubectl get pvc -n harbor| awk 'NR!=1{print $1}' | xargs kubectl delete pvc -n harbor
    
    # 部署
    helm install myharbor --namespace harbor harbor/harbor \
      --set expose.ingress.hosts.core=myharbor.com \
      --set expose.ingress.hosts.notary=notary.harbor.service.com \
      --set-string expose.ingress.annotations.'nginx\.org/client-max-body-size'="1024m" \
      --set expose.tls.secretName=myharbor.com \
      --set persistence.persistentVolumeClaim.registry.storageClass=harbor-nfs-storage \
      --set persistence.persistentVolumeClaim.jobservice.storageClass=harbor-nfs-storage \
      --set persistence.persistentVolumeClaim.database.storageClass=harbor-nfs-storage \
      --set persistence.persistentVolumeClaim.redis.storageClass=harbor-nfs-storage \
      --set persistence.persistentVolumeClaim.trivy.storageClass=harbor-nfs-storage \
      --set persistence.persistentVolumeClaim.chartmuseum.storageClass=harbor-nfs-storage \
      --set persistence.enabled=true \
      --set externalURL=https://myharbor.com \
      --set harborAdminPassword=Harbor12345
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19

    【问题】发现ingress没有ADDRESS
    【分析】,发现"error: endpoints “default-http-backend” not found"

    cat << EOF > default-http-backend.yaml
    ---
     
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: default-http-backend
      labels:
        app: default-http-backend
      namespace: harbor
    spec:
      replicas: 1
      selector:
        matchLabels:
          app: default-http-backend
      template:
        metadata:
          labels:
            app: default-http-backend
        spec:
          terminationGracePeriodSeconds: 60
          containers:
          - name: default-http-backend
            # Any image is permissible as long as:
            # 1. It serves a 404 page at /
            # 2. It serves 200 on a /healthz endpoint
            image: registry.cn-hangzhou.aliyuncs.com/google_containers/defaultbackend:1.4
    #        image: gcr.io/google_containers/defaultbackend:1.4
            livenessProbe:
              httpGet:
                path: /healthz
                port: 8080
                scheme: HTTP
              initialDelaySeconds: 30
              timeoutSeconds: 5
            ports:
            - containerPort: 8080
            resources:
              limits:
                cpu: 10m
                memory: 20Mi
              requests:
                cpu: 10m
                memory: 20Mi
    ---
     
    apiVersion: v1
    kind: Service
    metadata:
      name: default-http-backend
      namespace: harbor
      labels:
        app: default-http-backend
    spec:
      ports:
      - port: 80
        targetPort: 8080
      selector:
        app: default-http-backend
    EOF
    kubectl apply -f default-http-backend.yaml
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61

    8)配置IPVS

    【问题】集群内无法ping通ClusterIP(或ServiceName)

    1、加载ip_vs相关内核模块

    modprobe -- ip_vs
    modprobe -- ip_vs_sh
    modprobe -- ip_vs_rr
    modprobe -- ip_vs_wrr
    
    • 1
    • 2
    • 3
    • 4

    所有节点验证开启了ipvs:

    lsmod |grep ip_vs
    
    • 1

    2、安装ipvsadm工具

    yum install ipset ipvsadm -y
    
    • 1

    3、编辑kube-proxy配置文件,mode修改成ipvs

    kubectl edit  configmap -n kube-system  kube-proxy
    
    • 1

    在这里插入图片描述

    4、重启kube-proxy

    # 先查看
    kubectl get pod -n kube-system | grep kube-proxy
    # 再delete让它自拉起
    kubectl get pod -n kube-system | grep kube-proxy |awk '{system("kubectl delete pod "$1" -n kube-system")}'
    # 再查看
    kubectl get pod -n kube-system | grep kube-proxy
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    在这里插入图片描述

    5、查看ipvs转发规则

    ipvsadm -Ln
    
    • 1

    在这里插入图片描述
    Kubernetes(k8s)最新版最完整版基础环境部署+master高可用实现详细步骤就到这里了,有疑问的小伙伴欢迎给我留言哦~

  • 相关阅读:
    unity编辑器报错Microsoft Visual C# Compiler version
    eclipse 根据wsdl文件生成Java文件 3种方式
    Java Stack 类
    多商家AI智能名片商城系统(开源版)——构建高效数字化商业新生态
    js逆向JSVMP篇新版某乎_x-zes-96算法还原
    减少延迟时间的方法
    【八大经典排序算法】选择排序
    yolo系列的Neck模块
    【关于Linux中----进程优先级、环境变量和进程地址空间】
    神经网络中的权重和偏置初始化
  • 原文地址:https://blog.csdn.net/qq_35745940/article/details/125455467