Архитектура Spark полностью вращается вокруг концепции исполнителей и ядер. Я хотел бы практически увидеть, сколько исполнителей и ядер работает для моего искрового приложения, работающего в кластере.
Я пытался использовать приведенный ниже фрагмент в своем приложении, но не повезло.
val conf = new SparkConf().setAppName("ExecutorTestJob")
val sc = new SparkContext(conf)
conf.get("spark.executor.instances")
conf.get("spark.executor.cores")
Есть ли способ получить эти значения, используя объект SparkContext
или объект SparkConf
и т.д..