Запустить многоузловой elasticsearch на K3s

Я установил Elastic / Kibana / Logstash, используя официальные диаграммы управления с настроенными значениями values.yaml в кластере K3s. Если я запускаю kubectl get nodes, я правильно получаю список узлов кластера. Однако, когда я запускаю kubectl get pods -o, я вижу, что все модули назначены только одному из узлов, а остальные узлы не используются.

Я пробовал ➜ ~ kubectl scale --replicas = 2 statefulset elasticsearch-master Он пытается запланировать новые модули на том же узле и запускает анти / сродство модулей.

Количество узлов в мониторинге стека Kibana всегда равно 1. Хранилище также ограничено временным диском первого узла.

Должен ли я явно пометить неиспользуемые узлы кластера, прежде чем эластичный сможет их использовать?


person Mustafa Qamaruddin    schedule 12.03.2021    source источник
comment
Не могли бы вы поделиться ссылкой на диаграмму управления elasticsearc, версию диаграммы и ваш файл values.yml?   -  person antaxify    schedule 12.03.2021
comment
@antaxify, спасибо за комментарий, я использую 7.10.2 и обнаружил ошибку. Ошибка заключалась в присвоении метки другим узлам в кластере, я должен вообще оставить узлы без метки. $ kubectl label node ip-X-X-X-X.ec2.internal node-role.kubernetes.io/worker=worker   -  person Mustafa Qamaruddin    schedule 13.03.2021


Ответы (1)


Я нашел ошибку. Ошибка заключалась в присвоении метки другим узлам в кластере, я должен вообще оставить узлы без метки.

Я не должен был бежать:

$ kubectl label node ip-X-X-X-X.ec2.internal node-role.kubernetes.io/worker=worker

person Mustafa Qamaruddin    schedule 13.03.2021