Я настраиваю кластер k8s, в котором есть один главный узел и один рабочий узел, coredns
pod - это расписание для рабочего узла и отлично работает. Когда я удаляю рабочий узел, модуль coredns
по расписанию для основного узла, но имеет состояние CrashLoopBackOff
, журнал coredns
модуля выглядит следующим образом:
E0118 10:06:02.408608 1 reflector.go:153] pkg/mod/k8s.io/[email protected]/tools/cache/reflector.go:105: Failed to list *v1.Endpoints: Get https://10.96.0.1:443/api/v1/endpoints?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: connect: no route to host
E0118 10:06:02.408752 1 reflector.go:153] pkg/mod/k8s.io/[email protected]/tools/cache/reflector.go:105: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: connect: no route to host
[INFO] SIGTERM: Shutting down servers then terminating
[INFO] plugin/health: Going into lameduck mode for 5s
Эта статья скажем, компоненты DNS должны работать на обычном узле кластера (а не на мастере Kubernetes):
Помимо основных компонентов Kubernetes, таких как api-server, scheduler, controller-manager, работающих на главной машине, существует ряд надстроек, которые по разным причинам должны запускаться на обычном узле кластера (а не на главном сервере Kubernetes). Некоторые из этих надстроек критически важны для полнофункционального кластера, например Heapster, DNS и UI.
Может ли кто-нибудь объяснить, почему модуль coredns
не может работать на главном узле?