Kubeadm - нет порта 6443 после создания кластера

Я пытаюсь создать кластер Kubernetes HA с помощью kubeadm. Версия Kubeadm: v.1.11.1

Я использую следующие инструкции: kubeadm ha

Все прошло нормально, кроме финальной точки. Узлы не видят друг друга на порту 6443.

sudo netstat -an | grep 6443

Ничего не показывает.

В журнале ctl -u kubelet я вижу следующую ошибку:

reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:464: Failed to list *v1.Node: Get https://<LB>:6443/api/v1/nodes?fieldSelector=metadata.name%3Dip-172-19-111-200.ec2.internal&limit=500&resourceVersion=0: dial tcp 172.19.111.200:6443: connect: connection refused

Список запущенных докеров на экземпляре:

sudo docker ps

CONTAINER ID        IMAGE                  COMMAND                  CREATED             STATUS              PORTS               NAMES
e3eabb527a92        0e4a34a3b0e6           "kube-scheduler --ad…"   19 hours ago        Up 19 hours                             k8s_kube-scheduler_kube-scheduler-ip-172-19-111-200.ec2.internal_kube-system_31eabaff7d89a40d8f7e05dfc971cdbd_1
123e78fa73c7        55b70b420785           "kube-controller-man…"   19 hours ago        Up 19 hours                             k8s_kube-controller-manager_kube-controller-manager-ip-172-19-111-200.ec2.internal_kube-system_85384ca66dd4dc0adddc63923e2425a8_1
e0aa05e74fb9        1d3d7afd77d1           "/usr/local/bin/kube…"   19 hours ago        Up 19 hours                             k8s_kube-proxy_kube-proxy-xh5dg_kube-system_f6bc49bc-959e-11e8-be29-0eaa4481e274_0
f5eac0b8fe7b        k8s.gcr.io/pause:3.1   "/pause"                 19 hours ago        Up 19 hours                             k8s_POD_kube-proxy-xh5dg_kube-system_f6bc49bc-959e-11e8-be29-0eaa4481e274_0
541011b3e83a        k8s.gcr.io/pause:3.1   "/pause"                 19 hours ago        Up 19 hours                             k8s_POD_etcd-ip-172-19-111-200.ec2.internal_kube-system_84d934eebaace20c70e0f268eb100028_0
a5e203947686        k8s.gcr.io/pause:3.1   "/pause"                 19 hours ago        Up 19 hours                             k8s_POD_kube-scheduler-ip-172-19-111-200.ec2.internal_kube-system_31eabaff7d89a40d8f7e05dfc971cdbd_0
89dbcdda659c        k8s.gcr.io/pause:3.1   "/pause"                 19 hours ago        Up 19 hours                             k8s_POD_kube-apiserver-ip-172-19-111-200.ec2.internal_kube-system_4202bb793950ae679b2a433ea8711d18_0
5948e629d90e        k8s.gcr.io/pause:3.1   "/pause"                 19 hours ago        Up 19 hours                             k8s_POD_kube-controller-manager-ip-172-19-111-200.ec2.internal_kube-system_85384ca66dd4dc0adddc63923e2425a8_0

Переадресация в sysctl существует:

sudo sysctl -p
net.bridge.bridge-nf-call-iptables = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.tcp_syncookies = 1
net.ipv4.icmp_echo_ignore_broadcasts = 1
net.ipv4.conf.all.accept_redirects = 0
net.ipv4.ip_forward = 1

person user2820186    schedule 02.08.2018    source источник


Ответы (2)


Узлы не видят друг друга на порту 6443.

Похоже, ваш API-сервер не работает.

  • Тот факт, что у вас есть ошибка с указанием :6443: connect: connection refused, указывает на то, что ваш сервер API не работает.
  • Это дополнительно подтверждается из вашего списка запущенных контейнеров докеров в экземплярах — вам не хватает контейнера сервера API. Обратите внимание, что у вас есть связанный контейнер с "/pause", но отсутствует контейнер с "kube-apiserver --...". Ваш планировщик и контроллер-менеджер работают правильно, но сервер API - нет.

Теперь вам нужно покопаться и посмотреть, что мешало правильному запуску вашего API-сервера. Проверьте журналы kubelet на всех узлах плоскости управления.

person Const    schedule 02.08.2018

Это также происходит, если ваше ядро ​​​​Linux не настроено для прозрачного использования ip4/ip6. Адрес ip4, настроенный, когда kube-api прослушивает интерфейс ip6, прерывается.

person Jon Watte    schedule 10.02.2020