在计划程序池上提交Spark作业

问题描述 投票:2回答:2

我在集群模式下运行火花流工作,我创建了一个内存为200GB(CDH)的池。我想在那个游泳池上运行我的火花流工作,我试着设置

sc.setLocalProperty("spark.scheduler.pool", "pool")

在代码但它不工作,我也尝试了spark.scheduler.pool seems not working in spark streaming,每当我运行它在默认池中的工作。可能的问题是什么?我可以在提交作业时添加任何配置吗?

apache-spark spark-streaming cloudera-cdh job-scheduling
2个回答
1
投票

在纱线中我们可以添加

--conf spark.yarn.queue="que_name"spark-submit命令。然后它将仅使用该特定队列及其资源。


0
投票

我遇到了与Spark 2.4相同的问题。在我的情况下,通过删除我的Spark配置中的默认“spark.scheduler.pool”选项解决了该问题。

我将问题追溯到Spark中的一个错误 - https://issues.apache.org/jira/browse/SPARK-26988。问题是,如果在基本配置中设置配置属性“spark.scheduler.pool”,则无法使用setLocalProperty覆盖它。从基本配置中删除它使其正常工作。有关详细信息,请参阅错误说明。

© www.soinside.com 2019 - 2024. All rights reserved.