узел-экспортер прометея на кубернетах

Я развернул Prometheus на кластере Kubernetes (EKS). Мне удалось успешно очистить prometheus и traefik с помощью следующих

scrape_configs:
  # A scrape configuration containing exactly one endpoint to scrape:

  # The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
  - job_name: 'prometheus'
    # Override the global default and scrape targets from this job every 5 seconds.
    scrape_interval: 5s
    static_configs:
      - targets: ['prometheus.kube-monitoring.svc.cluster.local:9090']

  - job_name: 'traefik'
    static_configs:
      - targets: ['traefik.kube-system.svc.cluster.local:8080']

Но узел-экспортер, развернутый как DaemonSet со следующим определением, не предоставляет метрики узла.

apiVersion: apps/v1
kind: DaemonSet
metadata:
  name: node-exporter
  namespace: kube-monitoring
spec:
  selector:
    matchLabels:
      app: node-exporter
  template:
    metadata:
      name: node-exporter
      labels:
        app: node-exporter
    spec:
      hostNetwork: true
      hostPID: true
      containers:
      - name: node-exporter
        image: prom/node-exporter:v0.18.1
        args:
        - "--path.procfs=/host/proc"
        - "--path.sysfs=/host/sys"
        ports:
        - containerPort: 9100
          hostPort: 9100
          name: scrape
        resources:
          requests:
            memory: 30Mi
            cpu: 100m
          limits:
            memory: 50Mi
            cpu: 200m
        volumeMounts:
        - name: proc
          readOnly:  true
          mountPath: /host/proc
        - name: sys
          readOnly: true
          mountPath: /host/sys
      tolerations:
        - effect: NoSchedule
          operator: Exists
      volumes:
      - name: proc
        hostPath:
          path: /proc
      - name: sys
        hostPath:
          path: /sys

и следующие scrape_configs в prometheus

scrape_configs:
  - job_name: 'kubernetes-nodes'
    scheme: http
    kubernetes_sd_configs:
    - role: node
    relabel_configs:
    - action: labelmap
      regex: __meta_kubernetes_node_label_(.+)
    - target_label: __address__
      replacement: kubernetes.kube-monitoring.svc.cluster.local:9100
    - source_labels: [__meta_kubernetes_node_name]
      regex: (.+)
      target_label: __metrics_path__
      replacement: /api/v1/nodes/${1}/proxy/metrics 

Я также пробовал curl http://localhost:9100/metrics из одного контейнера, но получил curl: (7) Failed to connect to localhost port 9100: Connection refused

Что мне здесь не хватает с конфигурацией?

После предложения установить Prometheus через Helm, я не стал устанавливать его на тестовый кластер и попытался сравнить свою исходную конфигурацию с установленным Helm Prometheus.

Были запущены следующие поды:

NAME                                                     READY   STATUS    RESTARTS   AGE
alertmanager-prometheus-prometheus-oper-alertmanager-0   2/2     Running   0          4m33s
prometheus-grafana-66c7bcbf4b-mh42x                      2/2     Running   0          4m38s
prometheus-kube-state-metrics-7fbb4697c-kcskq            1/1     Running   0          4m38s
prometheus-prometheus-node-exporter-6bf9f                1/1     Running   0          4m38s
prometheus-prometheus-node-exporter-gbrzr                1/1     Running   0          4m38s
prometheus-prometheus-node-exporter-j6l9h                1/1     Running   0          4m38s
prometheus-prometheus-oper-operator-648f9ddc47-rxszj     1/1     Running   0          4m38s
prometheus-prometheus-prometheus-oper-prometheus-0       3/3     Running   0          4m23s

Я не нашел конфигурации для экспортера узлов в модуле prometheus-prometheus-prometheus-oper-prometheus-0 на /etc/prometheus/prometheus.yml


person roy    schedule 09.07.2019    source источник
comment
Похоже, вы используете оператор prometheus, вы создали сервис-монитор для узла-экспортера? Чтобы выяснить это, выполните kubectl get servicemonitors --all-namespaces.   -  person Hang Du    schedule 07.08.2019


Ответы (3)


Предыдущий совет по использованию Helm очень верен, я бы тоже порекомендовал его.

Что касается вашей проблемы: дело в том, что вы не очищаете узлы напрямую, для этого вы используете node-exporter. Таким образом, role: node неверно, вы должны вместо этого использовать role: endpoints. Для этого вам также необходимо создать сервис для всех подов вашего DaemonSet.

Вот рабочий пример из моей среды (установлен Helm):

- job_name: monitoring/kube-prometheus-exporter-node/0
  scrape_interval: 15s
  scrape_timeout: 10s
  metrics_path: /metrics
  scheme: http
  kubernetes_sd_configs:
  - role: endpoints
    namespaces:
      names:
      - monitoring
  relabel_configs:
  - source_labels: [__meta_kubernetes_service_label_app]
    separator: ;
    regex: exporter-node
    replacement: $1
    action: keep
  - source_labels: [__meta_kubernetes_endpoint_port_name]
    separator: ;
    regex: metrics
    replacement: $1
    action: keep
  - source_labels: [__meta_kubernetes_namespace]
    separator: ;
    regex: (.*)
    target_label: namespace
    replacement: $1
    action: replace
  - source_labels: [__meta_kubernetes_pod_name]
    separator: ;
    regex: (.*)
    target_label: pod
    replacement: $1
    action: replace
  - source_labels: [__meta_kubernetes_service_name]
    separator: ;
    regex: (.*)
    target_label: service
    replacement: $1
    action: replace
  - source_labels: [__meta_kubernetes_service_name]
    separator: ;
    regex: (.*)
    target_label: job
    replacement: ${1}
    action: replace
  - separator: ;
    regex: (.*)
    target_label: endpoint
    replacement: metrics
    action: replace
person Vasili Angapov    schedule 10.07.2019

Как вы развернули Прометей? Всякий раз, когда я использовал Helm-диаграмму (https://github.com/helm/charts/tree/master/stable/prometheus) узел-экспортер был развернут. Может это более простое решение.

person alexzimmer96    schedule 09.07.2019
comment
Я не использовал helm. Я знаю, что в большинстве руководств используется Helm. - person roy; 09.07.2019
comment
Мой совет: используйте это. Неинтересно делать из рук все, что руль делает за вас. Поверьте, вы не хотите поддерживать несколько стандартных развертываний приложений. - person alexzimmer96; 09.07.2019

Я застрял в подобном месте. Но здесь мои экспортеры узлов не являются частью развертывания Helm, поскольку у нас есть дополнительный экспортер узлов из сетки Tanzu kubernetes (кластер k8s). Итак, я создал монитор службы, и теперь я вижу обнаружение службы, и подсчет такой, каким должен быть. Но в целевом разделе указано значение 0/4. Не могу видеть метрики узлов, но когда я могу скрутить localhost: 9100 / metrics, я вижу данные. Кое-где мне не хватает логики.

Я проверил данные развернутого узла-экспортера Helm, он выглядит так же, но что мне здесь не хватает?

Не обращайте внимания на отступы, так как они пропущены при копировании и вставке на мобильном устройстве.

 - job_name: node-exporter
   scrape_interval: 15s
   scrape_timeout: 10s
   metrics_path: /metrics
   scheme: http
   kubernetes_sd_configs:
     - role: endpoints
       namespaces:
       names:
        - monitoring
  relabel_configs:
   - source_labels: 
       [__meta_kubernetes_service_label_app]
      separator: ;
      regex: exporter-node
      replacement: $1
      action: keep
   - source_labels: 
       [__meta_kubernetes_endpoint_port_name]
      separator: ;
      regex: metrics
      replacement: $1
      action: keep
  - source_labels: [__meta_kubernetes_namespace]
     separator: ;
     regex: (.*)
     target_label: namespace
     replacement: $1
     action: replace
 - source_labels: [__meta_kubernetes_pod_name]
   separator: ;
   regex: (.*)
   target_label: pod
   replacement: $1
   action: replace
- source_labels: [__meta_kubernetes_service_name]
   separator: ;
   regex: (.*)
   target_label: service
   replacement: $1
   action: replace
 - source_labels: [__meta_kubernetes_service_name]
   separator: ;
    regex: (.*)
   target_label: job
   replacement: ${1}
   action: replace
  - separator: ;
    regex: (.*)
    target_label: endpoint
    replacement: metrics
    action: replace
person VAMSHI T    schedule 16.02.2021