executor}.memory + memory overhead.

问题描述 投票:0回答:1

I'm new in spark-operator I'm confused how to setup the resources request and limits in YAML file for example in my case I have request 512m of memory for driver pod, but what about limits, it is unbounded ?

spec:
  driver:
    cores: 1
    coreLimit: 200m
    memory: 512m
    labels:
      version: 2.4.5
    serviceAccount: spark

spec: driver: cores.1 coreLimit: 200m 1 coreLimit: 200m memory: 512m 标签:版本:2.4.5 服务账户:spark

apache-spark kubernetes operators google-kubernetes-engine kubernetes-pod
1个回答
2
投票

这是一个很好的做法,当定义你的YAML文件设置限制。如果你不这样做,你运行的风险,使用所有的资源在节点上的每一个这 文档 因为没有上限。


驱动程序和执行器pod的内存限制由Spark中的Kubernetes调度器后台内部设置,并以spark.{driver的值计算。

© www.soinside.com 2019 - 2024. All rights reserved.