SkyDNS MissingClusterDNS в модулях

Я установил kubernetes 1.2.4 на 3 сервера REHEL7 (нет доступа к интернету, все проталкивается через ansible).

РЕДАКТИРОВАТЬ: см. конец вопроса

У меня все отлично работает, за исключением примера kube-dns, приведенного в документации. Я сделал несколько тестов, несколько настроек, воссоздал все модули... И у меня всегда есть эта ошибка «MissingClusterDNS»:

enter code here20m     20m     2   {kubelet k8s-minion-1.XXXXXX}                   Warning     MissingClusterDNS   kubelet does not have ClusterDNS IP configured and cannot create Pod using "ClusterFirst" policy. Falling back to DNSDefault policy.

Как видите, kube-dns запущен:

kubectl get svc kube-dns --namespace=kube-system
NAME       CLUSTER-IP     EXTERNAL-IP   PORT(S)         AGE
kube-dns   172.16.0.99   <none>        53/UDP,53/TCP   15m

И у kubelete есть правильные варианты

KUBELET_ARGS=" --cluster-dns=172.16.0.99 --cluster-domain=kubernetes.local "

Доказательство:

ps ax | grep kubelet
 6077 ?        Ssl    0:07 /opt/kubernetes/bin/kubelet --logtostderr=true --v=0 --address=0.0.0.0 --port=10250 --hostname-override=k8s-minion-1.XXXXXX --api-servers=http://k8s-master.XXXXXX:8080 --allow-privileged=false  --cluster-dns=172.16.0.99 --cluster-domain=kubernetes.local

Но модуль DNS как не работающий контейнер:

kubectl get pods  --namespace=kube-system
NAME                 READY     STATUS             RESTARTS   AGE
kube-dns-v11-f2f4a   3/4       CrashLoopBackOff   7          18m

И журнал явный:

Warning Unhealthy   Readiness probe failed: Get http://172.16.23.2:8081/readiness: dial tcp 172.16.23.2:8081: connection refused
...
Warning FailedSync  Error syncing pod, skipping: failed to "StartContainer" for "kube2sky" with CrashLoopBackOff: "Back-off 5m0s restarting failed container=kube2sky pod=kube-dns-v11-f2f4a_kube-system(27d70b7c-36f9-11e6-b4fe-fa163ee85c45)"

Если вам нужна дополнительная информация:

$ kubectl get pods  --namespace=kube-system
NAME                 READY     STATUS             RESTARTS   AGE
kube-dns-v11-f2f4a   3/4       CrashLoopBackOff   7          18m

-------------------------  

$ kubectl describe rc  --namespace=kube-system
Name:       kube-dns-v11
Namespace:  kube-system
Image(s):   our.registry/gcr.io/google_containers/etcd-amd64:2.2.1,our.registry/gcr.io/google_containers/kube2sky:1.14,our.registry/gcr.io/google_containers/skydns:2015-10-13-8c72f8c,our.registry/gcr.io/google_containers/exechealthz:1.0
Selector:   k8s-app=kube-dns,version=v11
Labels:     k8s-app=kube-dns,kubernetes.io/cluster-service=true,version=v11
Replicas:   1 current / 1 desired
Pods Status:    1 Running / 0 Waiting / 0 Succeeded / 0 Failed
Volumes:
  etcd-storage:
    Type:   EmptyDir (a temporary directory that shares a pod's lifetime)
    Medium: 
Events:
  FirstSeen LastSeen    Count   From                SubobjectPath   Type        Reason          Message
  --------- --------    -----   ----                -------------   --------    ------          -------
  19m       19m     1   {replication-controller }           Normal      SuccessfulCreate    Created pod: kube-dns-v11-f2f4a

-------------------------------------------------------

$ kubectl get all --all-namespaces 
NAMESPACE     NAME                 DESIRED        CURRENT            AGE
kube-system   kube-dns-v11         1              1                  24m
NAMESPACE     NAME                 CLUSTER-IP     EXTERNAL-IP        PORT(S)         AGE
default       kubernetes           172.16.0.1     <none>             443/TCP         27m
kube-system   kube-dns             172.16.0.99   <none>             53/UDP,53/TCP   24m
NAMESPACE     NAME                 READY          STATUS             RESTARTS        AGE
default       busybox              1/1            Running            0               23m
kube-system   kube-dns-v11-f2f4a   3/4            CrashLoopBackOff   9               24m

Если кто-то может помочь мне понять проблему...

Примечание. Я использую https://github.com/kubernetes/kubernetes/tree/release-1.2/cluster/addons/dns rc и svc, где я только изменил:

  • clusterIp на действительный IP-адрес в моем диапазоне IP-адресов Kubernetes
  • домен кластера: kubernetes.local
  • DNS кластера: 172.16.0.99

РЕДАКТИРОВАТЬ: Проблема с работой 3/4 kube-dns связана с сертификатами. Так что я могу подтвердить, что SkyDNS теперь работает.

NAME                 READY          STATUS        RESTARTS        AGE
kube-dns-v11-c96d5   4/4            Running       0               9m

Использование кластерного API-тестера:

kubectl logs --tail=80 kube-dns-v11-c96d5 kube2sky --namespace=kube-system
I0621 13:27:52.070730       1 kube2sky.go:462] Etcd server found: http://127.0.0.1:4001
I0621 13:27:53.073614       1 kube2sky.go:529] Using https://192.168.0.1:443 for kubernetes master
I0621 13:27:53.073632       1 kube2sky.go:530] Using kubernetes API <nil>
I0621 13:27:53.074020       1 kube2sky.go:598] Waiting for service: default/kubernetes
I0621 13:27:53.166188       1 kube2sky.go:660] Successfully added DNS record for Kubernetes service.

Но появляются другие проблемы.

  • теперь «Использование kubernetes API nil» вместо хорошей версии
  • пример busybox из документации kubernetes по-прежнему не разрешает kubernetes.local

Я буду больше исследовать. Но я решил проблему запуска skydns. Спасибо


person Metal3d    schedule 21.06.2016    source источник


Ответы (1)


Один из ваших DNS-контейнеров не готов. Вот что значит "Готов 3/4".

Лучше всего использовать команду kubectl logs <pod> <container> для получения журналов контейнера, в котором произошел сбой. Вы можете добавить kubectl logs --previous ..., если вам нужно получить журналы из контейнера, в котором уже произошел сбой.

Надеюсь, это даст вам информацию, необходимую для отладки, почему этот контейнер не появляется.

person Brendan Burns    schedule 21.06.2016
comment
Это именно то, что я пытаюсь с утра. Я пытаюсь изменить сертификаты, конфигурацию ipv4 и т. д.... в настоящее время: ошибка при попадании в главный IP-адрес. Как будто модуль не может связаться с сервером API. Спасибо. - person Metal3d; 21.06.2016
comment
Я могу принять этот ответ, потому что он дает мне информацию, чтобы решить первую проблему, связанную с проблемой kube2sky. Мне нужно было создать сертификаты с IP в разделах. Используя образ cluster-api-tester, я теперь вижу правильную конфигурацию. Но пример с busybox пока не работает... Через пару часов открою другую тему, если действительно не найду никакой информации - person Metal3d; 21.06.2016