Ведомый kubernetes не может присоединиться к ведущему с помощью kubeadm v1.8

kubeadm присоединение к ведомому устройству находит ведущее устройство, но ведущее устройство никогда не видит подчиненное устройство:

user1@ubuntu:~$ kubectl get nodes

NAME      STATUS    ROLES     AGE       VERSION

ubuntu    Ready     master    1h        v1.8.0


user1@ubuntu:~$ kubectl get pods --all-namespaces

NAMESPACE     NAME                                    READY     STATUS    RESTARTS   AGE

kube-system   etcd-ubuntu                             1/1       Running   0          1h

kube-system   kube-apiserver-ubuntu                   1/1       Running   0          1h

kube-system   kube-controller-manager-ubuntu          1/1       Running   0          1h

kube-system   kube-dns-545bc4bfd4-576sl               3/3       Running   0          1h

kube-system   kube-flannel-ds-fwqct                   1/1       Running   0          1h

kube-system   kube-proxy-fkk6m                        1/1       Running   0          1h

kube-system   kube-scheduler-ubuntu                   1/1       Running   0          1h

kube-system   kubernetes-dashboard-7f9dbb8685-b5gmh   1/1       Running   0          26m

user1@ubuntu:~# kubeadm version
kubeadm version: &version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.0", GitCommit:"6e937839ac04a38cac63e6a7a306c5d035fe7b0a", GitTreeState:"clean", BuildDate:"2017-09-28T22:46:41Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"}

person bladerunner512    schedule 11.10.2017    source источник
comment
Что выводит терминал, когда вы запускаете kubeadm join ... на ведомом узле? Служба kubelet работает на вашем подчиненном узле?   -  person ichbinblau    schedule 16.10.2017
comment
Да, [обнаружение] Успешно установлено соединение... на подчиненном устройстве. Получение ошибки kubelet при синхронизации pod kube-dns с использованием Flannel, Weave и Calico. Получение «CrashLoopBackOff» для kube-dns на мастере. Я видел, как другие сообщают о подобной проблеме, но решение не найдено.   -  person bladerunner512    schedule 17.10.2017


Ответы (2)


Судя по вашим выводам, ваш вычислительный узел не был зарегистрирован, иначе он был бы в состоянии «Не готов», но, по крайней мере, существовал.
Пожалуйста, предоставьте вывод вашего kubeadm join ..., а также соответствующие журналы kubelet. Убедитесь, что у вас нет брандмауэра на вычислительном узле, блокирующего порт kubelet.

person onorua    schedule 23.10.2017

join appears to be successful: slave@ubuntu:~# kubeadm join --token 888fb2.176443c7da1f21b9 192.168.80.158:6443 --discovery-token-ca-cert-hash sha256:43d13c540a4c70686b5a3bd54a0514eddcaf5d0f5876f5b3a059eee4de833609 [kubeadm] WARNING: kubeadm is in beta, please не используйте его для производственных кластеров. [предварительная проверка] Выполнение предварительных проверок [предварительная проверка] ВНИМАНИЕ: версия докера больше, чем последняя проверенная версия. Версия докера: 17.09.0-ce. Максимальная проверенная версия: 17.03 [предварительная проверка] Запуск службы kubelet [обнаружение] Попытка подключения к серверу API «192.168.80.158:6443» [обнаружение] Создан клиент обнаружения информации о кластере, запрашивающий информацию из «https://192.168.80.158:6443" [обнаружение] Запрос информации с "https://192.168.80.158:6443" еще раз, чтобы проверить TLS на соответствие закрепленному открытому ключу [обнаружение] Подпись и содержимое информации о кластере действительны, а сертификат TLS проверяется на закрепленных корнях, будет использоваться Сервер API "192.168.80.158:6443" [обнаружение] Успешно установлено соединение с сервером API "192.168.80.158:6443" [загрузка] Обнаруженная версия сервера: v1.8.1 [загрузка] Сервер поддерживает API сертификатов (certificates.k8s.io /v1beta1)

Присоединение узла завершено:

Запрос на подпись сертификата отправлен мастеру и получен ответ. Kubelet сообщил о новых деталях безопасного соединения. Запустите «kubectl get nodes» на мастере, чтобы увидеть, как эта машина присоединится.

get kublet 'Ошибка синхронизации pod kube-dns': MESSAGE=I1017 08:58:20.458189 92898 kuberuntime_manager.go:748] Отсрочка 5 м0 с при перезапуске не удалось container=dnsmasq pod=kube-dns... MESSAGE=E1017 08:58: 20.458293 92898 pod_workers.go:182] Ошибка синхронизации модуля b6b29930-aece-11e7-9319-000c2941e694 ("kube-dns... MESSAGE=, не удалось выполнить "StartContainer" для "dnsmasq" с CrashLoopBackOff: "Не удалось выполнить перезапуск на 5 м0 сек. контейнер = dnsmasq pod = кубе-dns

person bladerunner512    schedule 24.10.2017