Я установил Elastic / Kibana / Logstash, используя официальные диаграммы управления с настроенными значениями values.yaml в кластере K3s. Если я запускаю kubectl get nodes, я правильно получаю список узлов кластера. Однако, когда я запускаю kubectl get pods -o, я вижу, что все модули назначены только одному из узлов, а остальные узлы не используются.
Я пробовал ➜ ~ kubectl scale --replicas = 2 statefulset elasticsearch-master Он пытается запланировать новые модули на том же узле и запускает анти / сродство модулей.
Количество узлов в мониторинге стека Kibana всегда равно 1. Хранилище также ограничено временным диском первого узла.
Должен ли я явно пометить неиспользуемые узлы кластера, прежде чем эластичный сможет их использовать?