Я использую Airflow для запуска заданий Spark в Google Cloud Composer. Мне необходимо
- Создать кластер (параметры YAML предоставляются пользователем)
- список искровых заданий (параметры задания также предоставляются YAML для каждого задания)
С помощью Airflow API я могу читать файлы YAML и передавать переменные между задачами с помощью xcom.
Но обратите внимание на DataprocClusterCreateOperator()
cluster_name
project_id
zone
и несколько других аргументов помечены как шаблонные.
Что, если я хочу передать другие аргументы в качестве шаблонных (что в настоящее время не так)? - например, image_version
, num_workers
, worker_machine_type
и т. д.?
Есть ли обходной путь для этого?