从 GKE 集群中删除节点后,GEK 不会自动启动新节点



>我创建了一个集群:

gcloud container clusters create test

所以会有 3 个节点:

kubectl get nodes
NAME                                 STATUS    ROLES     AGE       VERSION
gke-test-default-pool-cec920a8-9cgz   Ready     <none>    23h       v1.9.7-gke.5
gke-test-default-pool-cec920a8-nh0s   Ready     <none>    23h       v1.9.7-gke.5
gke-test-default-pool-cec920a8-q83b   Ready     <none>    23h       v1.9.7-gke.5

然后我从集群中删除一个节点

kubectl delete node gke-test-default-pool-cec920a8-9cgz
node "gke-test-default-pool-cec920a8-9cgz" deleted

不会创建新节点。

然后我删除所有节点。 仍然没有创建新节点。

kubectl get nodes
No resources found.

我做错了什么吗?我想如果某个节点死亡,它可以自动调出新节点。

运行kubectl delete node gke-test-default-pool-cec920a8-9cgz后运行gcloud compute instances delete gke-test-default-pool-cec920a8-9cgz

这实际上会删除 VM(kubectl delete只会将其与群集"断开连接"(。GCP 将重新创建 VM,并自动重新加入群集。

Kubernetes 是一个用于管理工作负载而不是机器的系统。Kubernetes 节点对象反映了底层基础设施的状态。

因此,节点对象由 Kubernetes 自动管理。"kubectl delete node"只是从 Kubernetes "etcd" 存储中删除一个序列化的对象。它不会删除托管 kubernetes 节点的 GCE 端的 VM。"kubectl delete node"不用于删除节点。节点池本身带有所需的声明状态,不能通过"kubectl delete node"命令进行更改。

如果要删除节点,则应调整实例组的大小。

最新更新