Я использовал стабильные диаграммы helm для установки mongodb в моем кластере AWS kubernetes, когда я впервые запускаю helm install mongodb, никаких проблем не возникает, все pod запускаются, и я тоже могу получить доступ к db.
однако, когда я запускаю helm install mongodb второй раз с новым именем выпуска, журналы pod показывают, что mongodb работает успешно, независимо от того, что статус показывает иначе ..
request-form-mongo-mongodb-7f8478854-t2g8z 1/1 Running 0 3m
scheduled-task-mongo-mongodb-8689677f67-tzhr9 0/1 CrashLoopBackOff 4 2m
когда я проверил журналы описания модуля для модуля ошибок,
вроде все нормально, но последние две строчки с этим предупреждением.
Normal Created 7m (x4 over 8m) kubelet, ip-172-20-38-19.us-west-2.compute.internal Created container
Normal Started 7m (x4 over 8m) kubelet, ip-172-20-38-19.us-west-2.compute.internal Started container
Warning FailedSync 7m (x6 over 8m) kubelet, ip-172-20-38-19.us-west-2.compute.internal Error syncing pod
Warning BackOff 2m (x26 over 8m) kubelet, ip-172-20-38-19.us-west-2.compute.internal Back-off restarting failed container
В чем может быть проблема и как ее решить?