从Airflow SparkSubmitOperator提交Spark应用程序时如何设置YARN队列

问题描述 投票:1回答:1

我是Airflow和SparkSubmitOperator的新手。我可以看到,在定位YARN时,Spark应用程序已提交到“ root.default”队列中。

简单问题-如何设置自定义队列名称?

wordcount = SparkSubmitOperator(
    application='/path/to/wordcount.py',
    task_id="wordcount",
    conn_id="spark_default",
    dag=dag
)

ps.s。我已经阅读了文档:

https://airflow.apache.org/docs/stable/_modules/airflow/contrib/operators/spark_submit_operator.html

谢谢

apache-spark hadoop airflow yarn
1个回答
0
投票

我现在看到--queue值来自Airflow spark-default连接:

Conn Id = spark_default
Host = yarn
Extra = {"queue": "root.default"}

在Airflow WebServer UI中将Extra更改为{“ queue”:“ default”}

© www.soinside.com 2019 - 2024. All rights reserved.