Я закрываю свой узел k8s вручную, чтобы посмотреть, повлияет ли это на мастер.
После выключения я проверяю состояние узлов:
kubectl get nodes
Узел, который вышел из строя, по-прежнему отображается как Ready в статусе. Как следствие, k8s все еще пытается запланировать модули на этом узле, но на самом деле не может. И, что еще хуже, он не перепланирует модули на других исправных узлах.
Через некоторое время (5-10 минут) k8s замечает, что нода исчезла.
Это ожидаемое поведение? Если нет, как я могу это исправить?
Я провел исследование, чтобы выяснить, как K8s проверяет работоспособность узла, я не смог найти ничего ценного.