Я запускаю свое приложение Spark на YARN с параметрами:
в spark-defaults.conf:
spark.master yarn-client
spark.driver.cores 1
spark.driver.memory 1g
spark.executor.instances 6
spark.executor.memory 1g
в yarn-site.xml:
yarn.nodemanager.resource.memory-mb 10240
Все остальные параметры установлены по умолчанию.
У меня кластер из 6 узлов, и компонент Spark Client установлен на каждом узле. Каждый раз, когда я запускаю приложение, в пользовательском интерфейсе Spark отображаются только 2 исполнителя и 1 драйвер. Исполнители появляются на разных узлах.
Почему Spark не может создать больше исполнителей? Почему всего 2 вместо 6?
Я нашел очень похожий вопрос: Apache Spark: установщик исполнителя instance не меняет исполнителей, но увеличение параметра memoty-mb в моем случае не помогло.