Попытка доступа к маршрутам Kubernetes Dashboard на страницу ошибки корпоративного прокси

Я следую этому руководству по запуску kubernetes с помощью kubeadm. Я выполнил это, и теперь у меня есть кластер из одной машины, работающий на виртуальной машине Centos7. Я установил сеть pod (Weave Net), а также панель мониторинга Kubernetes. Затем я запускаю kubectl proxy, и он отвечает Starting to serve on 127.0.0.1:8001.

Однако всякий раз, когда я пытаюсь получить доступ к панели управления, используя localhost:8001/ui или 127.0.0.1:8001/ui, я перенаправляюсь на страницу с ошибкой, связанную с моим корпоративным прокси-сервером, уведомляющую меня о тайм-ауте шлюза при попытке достичь http://10.32.0.4/.

Теперь я понял, что была какая-то конфигурация, в которой 10.32.0.4 не был включен в какое-то исключение, поэтому я начал добавлять его в env в no_proxy и NO_PROXY, я указал его в реальных настройках прокси в GUI, я убедился докер настроен так, что у него такое же исключение. Я даже (насколько мне известно) полностью удалил все следы настроек прокси-сервера в надежде, что он не будет пытаться пройти через корпоративный прокси-сервер, чтобы достичь того, что должно быть внутренним адресом. Дополнительная информация:

[root@localhost ~]# kubectl get nodes
NAME                    STATUS    AGE       VERSION
localhost.localdomain   Ready     22h       v1.6.4

[root@localhost ~]# kubectl get pods --namespace=kube-system
NAME                                            READY     STATUS    RESTARTS   AGE
etcd-localhost.localdomain                      1/1       Running   0          22h
kube-apiserver-localhost.localdomain            1/1       Running   0          22h
kube-controller-manager-localhost.localdomain   1/1       Running   0          22h
kube-dns-3913472980-8zm51                       3/3       Running   0          22h
kube-proxy-3wslb                                1/1       Running   0          22h
kube-scheduler-localhost.localdomain            1/1       Running   0          22h
kubernetes-dashboard-2039414953-79zbr           1/1       Running   0          22h
weave-net-z6kml                                 2/2       Running   0          22h

[root@localhost ~]# kubectl describe svc kubernetes-dashboard --namespace=kube-system
Name:           kubernetes-dashboard
Namespace:      kube-system
Labels:         k8s-app=kubernetes-dashboard
Annotations:        <none>
Selector:       k8s-app=kubernetes-dashboard
Type:           ClusterIP
IP:         10.96.33.253
Port:           <unset> 80/TCP
Endpoints:      10.32.0.4:9090
Session Affinity:   None
Events:         <none>

[root@localhost ~]# kubectl get deployment kubernetes-dashboard --namespace=kube-system
NAME                   DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
kubernetes-dashboard   1         1         1            1           22h

[root@localhost ~]# kubectl --namespace=kube-system get ep kubernetes-dashboard
NAME                   ENDPOINTS        AGE
kubernetes-dashboard   10.32.0.4:9090   22h

[root@localhost ~]# kubectl cluster-info
Kubernetes master is running at https://192.168.181.130:6443
KubeDNS is running at https://192.168.181.130:6443/api/v1/proxy/namespaces/kube-system/services/kube-dns

To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.

[root@localhost ~]# kubectl get ns
NAME          STATUS    AGE
default       Active    22h
kube-public   Active    22h
kube-system   Active    22h

[root@localhost ~]# kubectl get ep
NAME         ENDPOINTS              AGE
kubernetes   192.168.181.130:6443   22h

Я действительно не уверен, куда идти отсюда. Здесь много движущихся частей, и я не могу найти способ увидеть, что пойдет не так, когда произойдет перенаправление.


person jzeef    schedule 01.06.2017    source источник
comment
Вероятно, вам следует сначала попытаться выяснить, не блокирует ли корпоративный прокси вашу связь. Начните, возможно, с запуска виртуальной машины на своем собственном ноутбуке, повторите свои шаги на этой машине, зная, что все порты между этой гостевой виртуальной машиной и вашим хостом открыты. Если прокси работает таким образом, вы знаете, что проблема где-то в связи с удаленной машиной.   -  person Yaron Idan    schedule 01.06.2017


Ответы (1)


Настройки прокси копируются kubeadm при создании узла и не отражают изменения, выполненные после. Вы должны обновить настройки прокси в /etc/kubernetes/manifests/kube-apiserver.yaml

person qnox    schedule 02.06.2017
comment
Это сделало это! Я понятия не имел, что изначально он устанавливает свои собственные переменные! Теперь у меня есть полный доступ после добавления соответствующих IP-адресов в переменные без прокси. - person jzeef; 02.06.2017
comment
После редактирования настроек прокси в /etc/kubernetes/manifests/kube-apiserver.yaml я не могу получить доступ к kubapiserver 192.168.33.10. от мастера. Например. kubectl get nodes возвращает The connection to the server 192.168.33.10:6443 was refused. Даже если я верну свои изменения в kube-apiserver.yaml, я все равно получу ту же ошибку. Есть идеи, почему? - person samarjit samanta; 01.12.2017
comment
Я понял. Просто нужно было сделать systemctl daemon-reload и systemctl перезапустить kubelet. - person samarjit samanta; 01.12.2017