Я использую Airflow для планирования отправки JAR (соответствующих упаковке приложений Spark) в кластер Hadoop. Различные задания Spark имеют одинаковое имя JAR, но в зависимости от файлов конфигурации (я использую файлы .conf с библиотекой конфигурации TypeSafe) запускаются разные задания. Мой вопрос в том, как заставить Airflow анализировать файлы .conf, чтобы знать, какое искровое задание запускать. Итак, я запускаю приложение Spark с spark-submit --class ( same class for all jobs) -Dconfig.file=path/to/config-file
Любая идея об этом, пожалуйста