集群维护-备份升级排错
ETCD数据库备份和恢复
kubeadm部署方式的etcd的备份和恢复
如果k8s集群使用kubeadm方式部署,则代表etcd数据库是使用静态pod的方式启动的,且一半只有单台。所以静态pod的etcd的安装的yaml位于/etc/kubernetes/manifests/etcd.yaml。该文件内包含了etcd的所有配置信息,包含数据目录等。
apiVersion: v1
kind: Pod
metadata:
  annotations:
    kubeadm.kubernetes.io/etcd.advertise-client-urls: https://192.168.121.10:2379
  creationTimestamp: null
  labels:
    component: etcd
    tier: control-plane
  name: etcd
  namespace: kube-system
spec:
  containers:
  - command:
    - etcd
    - --advertise-client-urls=https://192.168.121.10:2379
    - --cert-file=/etc/kubernetes/pki/etcd/server.crt
    - --client-cert-auth=true
    - --data-dir=/var/lib/etcd    ######888888888 这里是数据目录
    - --initial-advertise-peer-urls=https://192.168.121.10:2380
    - --initial-cluster=k8s-master=https://192.168.121.10:2380
    - --key-file=/etc/kubernetes/pki/etcd/server.key
    - --listen-client-urls=https://127.0.0.1:2379,https://192.168.121.10:2379
    - --listen-metrics-urls=http://127.0.0.1:2381
    - --listen-peer-urls=https://192.168.121.10:2380
    - --name=k8s-master
    - --peer-cert-file=/etc/kubernetes/pki/etcd/peer.crt
    - --peer-client-cert-auth=true
    - --peer-key-file=/etc/kubernetes/pki/etcd/peer.key
    - --peer-trusted-ca-file=/etc/kubernetes/pki/etcd/ca.crt
    - --snapshot-count=10000
    - --trusted-ca-file=/etc/kubernetes/pki/etcd/ca.crt
    image: registry.aliyuncs.com/google_containers/etcd:3.4.13-0
    imagePullPolicy: IfNotPresent
    livenessProbe:
      failureThreshold: 8
      httpGet:
        host: 127.0.0.1
        path: /health
        port: 2381
        scheme: HTTP
      initialDelaySeconds: 10
      periodSeconds: 10
      timeoutSeconds: 15
    name: etcd
    resources:
      requests:
        cpu: 100m
        ephemeral-storage: 100Mi
        memory: 100Mi
    startupProbe:
      failureThreshold: 24
      httpGet:
        host: 127.0.0.1
        path: /health
        port: 2381
        scheme: HTTP
      initialDelaySeconds: 10
      periodSeconds: 10
      timeoutSeconds: 15
    volumeMounts:
    - mountPath: /var/lib/etcd
      name: etcd-data
    - mountPath: /etc/kubernetes/pki/etcd
      name: etcd-certs
  hostNetwork: true
  priorityClassName: system-node-critical
  volumes:
  ###### 使用hostpath部署
  - hostPath:
      path: /etc/kubernetes/pki/etcd # 证书目录
      type: DirectoryOrCreate
    name: etcd-certs
  - hostPath:
      path: /var/lib/etcd # etcd数据目录
      type: DirectoryOrCreate
    name: etcd-data
status: {}备份到snap.db文件:
ETCDCTL_API=3 etcdctl snapshot save snap.db \
--endpoints=https://192.168.121.10:2379 \
--cacert=/etc/kubernetes/pki/etcd/ca.crt \
--cert=/etc/kubernetes/pki/etcd/server.crt \
--key=/etc/kubernetes/pki/etcd/server.key三个参数信息均可在上述yaml中查询到,执行完毕后会将数据备份到snap.db文件。
etcdctl命令安装:
apt install etcd恢复etcd:
# 先暂停kube-apiserver和etcd,因为是static pod 所以只要移除 /etc/kubernetes/manifests/ 下的所有yaml即可停止静态pod
mv /etc/kubernetes/manifests /etc/kubernetes/manifests.bak
# 使用etcdctl恢复备份文件snap.db
EtCDCTL_API etcdctl snapshot restore snap.db \
--data-dir=/var/lib/etcd
# 启动停止的api-server和etcd
mv /etc/kubernetes/manifests.bak /etc/kubernetes/manifests二进制部署方式的etcd的备份和恢复
二进制部署方式的etcd一般至少有三个节点
备份到snap.db文件:
ETCDCTL_API=3 etcdctl snapshot save snap.db \
--endpoints=https://192.168.121.10:2379 \
--cacert=/etc/kubernetes/pki/etcd/ca.crt \
--cert=/etc/kubernetes/pki/etcd/server.crt \
--key=/etc/kubernetes/pki/etcd/server.keyendpoints指定任意一个etcd节点的ip即可,执行完毕后会将数据备份到snap.db文件。
恢复:
# 暂停kube-apiserver 和 etcd
systemctl stop kube-apiserver
systemctl stop etcd
# 在每个节点上恢复(所有的etcd节点都要执行,注意修改--name和--initial-advertise-peer-urls参数)
ETCDCTL_API=3 etcdctl snapshort restore snap.db \
--name etcd-1 \ 
--initial-cluster="etcd-1=https://192.168.121.10:2380,etcd-2=https://192.168.121.11:2380,etcd-3=https://192.168.121.12:2380" \
--initial-cluster-token=etcd-cluster \
--initial-advertise-peer-urls=https://192.168.121.10:2380 \
--data-dir=/var/lib/etcd/default.etcd
# 启动kubeapiserver和etcd
systemctl start kube-apiserver
systemctl start etcd上述参数具体查看etcd的配置文件。
velero 备份集群
备份你的k8s集群
kubeadm对k8s集群版本升级
Kubernetes每隔3个月发布一个小版本,比如 v1.21到v1.22需要三个月。可以在GitHub Release上查看版本。
针对k8s的升级共有三个策略:
始终保持最新
每半年升级一次,这样会落后社区1到2个小版本
一年升级一次,或者更长,(大部分公司选择一年升级一次),落后的版本较多 (推荐)
升级的基本流程:

注意:
升级之前必须备份所有组件及数据,例如etcd
不可以跨多个小版本进行升级,最好不要跨多个小版本,比如从1.16升级到1.19,有可能出现不兼容的问题(k8s官方保证两个小版本之间是兼容的)
Centos下
升级管理节点
升级kubeadm
# 查看当前集群的版本 kubectl version # 查找kubeadm最新的版本号列表,确认要升级的版本,这里选择 1.22.0-0 yum list --showduplicates kubeadm # 升级kubeadm yum install -y kubeadm-1.22.0-0准备、验证升级
# 驱逐node上的pod,且不可调度 kubectl drain k8s-master --ignore-daemonsets --delete-emptydir-data # 检查集群是否可以升级,并获取可以升级的版本 # 输出将会打印出可升级的命令 kubeadm upgrade plan执行升级
kubeadm upgrade apply v1.22.0升级kubelete 以及 kubectl
yum install -y kubelet-1.22.0-0 kubelet-1.22.0-0 # 重启kubelet systemctl daemon-reload systemctl restart kubelet取消不可调度
kubectl uncordon k8s-master
升级工作节点
注意:生产单台单台升级node,防止资源不可用
节点上升级kubeadm
yum install -y kubeadm-1.22.0-0驱逐工作node上的pod,且不可调度(在有kubectl配置的节点上操作)
kubectl drain k8s-node1 --ignore-daemonsets --delete-emptydir-data工作节点执行升级kubelet配置:
kubeadm upgrade node工作节点执行升级kubelet和kubectl
yum install -y kubelet-1.22.0-0 kubectl-1.22.0-0节点重启kubelet
systemctl daemon-reload systemctl restart kubelet节点取消不可调度,节点重新上线 (在有kubectl配置的节点上操作)
kubectl uncordon k8s-node1上述命令在每个工作节点上执行
查看升级结果
$ kubectl get node
NAME         STATUS   ROLES                  AGE     VERSION
k8s-master   Ready    control-plane,master   5d22h   v1.22.0
k8s-node1    Ready    <none>                 5d21h   v1.22.0
k8s-node2    Ready    <none>                 5d21h   v1.22.0Ubuntu下
升级管理节点
kubectl drain mk8s-master-0 --ignore-daemonsets
ssh mk8s-master-0
sudo -i
apt install kubeadm=1.20.1-00 –y
kubeadm upgrade plan
kubeadm upgrade apply v1.20.1 --etcd-upgrade=false # 题目要求不升级 etcd
# 升级 kubelet 和 kubectl
apt install kubelet=1.20.1-00 kubectl=1.20.1-00 -y
systemctl restart kubelet
# 设置为可调度
kubectl uncordon mk8s-master-0
# 查看升级结果
kubectl get node下线某个节点的流程
下线node
获取节点列表
kubectl get node驱逐节点上的pod并设置不可调度(cordon)
kubectl drain <node_name> --ignore-daemonsets
恢复下线的Node
设置可调度或者移除节点
kubectl uncordon <node_name>永久下线故障Node
kubectl delete node <node_name>故障排查
应用部署故障排查
查看部署的资源的详细信息,是否含有异常事件
kubectl describe TYPE/NAME查看Pod的日志
kubectl logs TYPE/NAME [-c CONTAINER]进入容器终端检查
kubectl exec POD [-c CONTAINER] -- COMMAND [args]
集群故障排查
首先区分部署方式,使用kubectl get pod -n kube-system快速查看是哪儿一种类型,如果是含有etcd、apiserver等静态pod说明是kubeadm安装
Kubeadm: 除了kubeadm外,其他组件均采用静态pod启动
二进制:所有组件均采用systemd管理
常见问题:
网络不通
启动失败,一般配置文件或者依赖服务有问题
# 查看kubelet日志操作系统,平台不兼容,版本性兼容
Service访问异常

Service访问不通,有以下几种情况:
Service是否正确关联Pod?
kubectl get epService指定的target-port端口是否正常?
nginx的服务端口为80,但是service的target-port设置为88Pod是否正常工作?
nginx压根没有正常提供服务,查看restart是否有重启Service是否通过DNS工作?
如果是通过域名访问的service,一定会走coredns解析,确保coredns组件正常工作 kubectl get pod -n kube-systemkube-proxy是否正常工作?
查看系统组件kube-proxy的状态,状态不正常是服务创建iptables/ipvs的规则的 kubectl get pod -n kube-systemkube-proxy是否正常写iptables规则?
cni网络插件是否正常工作?
kubectl get pod -n kube-system
最后更新于
这有帮助吗?