在Databricks Jobs API中传递JVM参数

问题描述 投票:1回答:1

我想使用Databricks中的Jobs API将JVM参数传递给REST请求。有可能做到吗?任何提示都会有所帮助。

类似于-Dconfig-file = app.conf的火花作业。

azure databricks azure-databricks jvm-arguments
1个回答
0
投票

您可以在REST API作业中使用“ spark_conf”属性。

spark_conf:一个对象,其中包含一组可选的,用户指定的Spark配置键值对。您还可以分别通过spark.driver.extraJavaOptions和spark.executor.extraJavaOptions将字符串的额外JVM选项传递给驱动程序和执行程序。

示例: Spark conf:{“ spark.speculation”:true,“ spark.streaming.ui.retainedBatches”:5}或{“ spark.driver.extraJavaOptions”:“-verbose:gc -XX: + PrintGCDetails“}

如何在Jobs API中使用:要创建启用表访问控制的集群,请在请求正文中指定以下spark_conf属性:

curl -X POST https://<databricks-instance>/api/2.0/clusters/create -d'
{
  "cluster_name": "my-cluster",
  "spark_version": "5.2.x-scala2.11",
  "node_type_id": "Standard_DS3_v2",
  "spark_conf": {
    "spark.databricks.acl.dfAclsEnabled":true,
    "spark.databricks.repl.allowedLanguages": "python,sql"
  },
  "num_workers": 1,
  "custom_tags":{
     "costcenter":"Tags",
     "applicationname":"Tags1"
  }
}'

有关更多详细信息,请参见“ API examples”和“ How to add spark configuration”。

希望这会有所帮助。

© www.soinside.com 2019 - 2024. All rights reserved.