将多个系统属性传递给Google Dataproc群集作业

问题描述 投票:1回答:1

我正在尝试在Dataproc集群上提交spark工作。该作业需要多个系统属性。我能够通过如下一个:

gcloud dataproc jobs submit spark \                                   
    --cluster <cluster_name> \
    --class <class_name> \
    --properties spark.driver.extraJavaOptions=-Dhost=127.0.0.1  \
    --jars spark_job.jar

如何传递多个属性?我尝试如下,即使这不起作用。

--properties ^#^spark.driver.extraJavaOptions=-Dhost=127.0.0.1,-Dlimit=10

apache-spark google-cloud-platform gcloud google-cloud-dataproc
1个回答
1
投票

我想到了。

gcloud dataproc jobs submit spark \                                   
    --cluster <cluster_name> \
    --class <class_name> \
    --properties spark.driver.extraJavaOptions='-Dhost=127.0.0.1 -Dlimit=10 -Dproperty_name=property_value' \
    --jars spark_job.jar
© www.soinside.com 2019 - 2024. All rights reserved.