k8s 的 Failover — Kubernetes(14)

in #kubernetes7 years ago

接上节,现在模拟 k8s-node2 故障,关闭该节点。

625.png

等待一段时间,Kubernetes 会检查到 k8s-node2 不可用,将 k8s-node2 上的 Pod 标记为 Unknown 状态,并在 k8s-node1 上新创建两个 Pod,维持总副本数为 3。

626.png

当 k8s-node2 恢复后,Unknown 的 Pod 会被删除,不过已经运行的 Pod 不会重新调度回 k8s-node2。

627.png

删除 nginx-deployment

628.png

下一节我们学习如何控制 Pod 运行的位置。

Sort:  

子节点 halt -> 重启就一直失联了, 状态始终是NotReady,
该节点上面也没有容器运行了.
怎么恢复呢?

最后没辙重新部署了一遍
1, NotReady, Kubelet stops reporting node status ->
kubectl delete node xx
kubeadm join
2, 但是又遇到问题
network plugin is not ready: cni config uninitialized
没辙只好全部kubeadm reset 重新部署了

看一下node的日志 journalctl -u kubelet,不排除是bug。

cloudman,你好:
请问halt -h关闭一个节点后,怎样恢复这个节点?