为什么YARN上的驱动程序和执行程序的核心数与请求的数量不同?

问题描述 投票:2回答:1

我使用以下内容在集群模式下部署spark作业

驱动核心 - 1 执行者核心 - 2 遗嘱执行人数 - 2。

我的理解是这个应用程序应占用集群中的5个核心(4个执行器核心和1个驱动核心),但我没有在RM和Spark UI中观察到这一点。

  1. 在资源管理器UI上,我看到只有4个核心用于此应用程序。
  2. 即使在Spark UI中(从RM单击ApplicationMaster URL),在executors选项卡下,驱动程序核心也显示为零。

我错过了什么吗?

集群管理器是YARN。

apache-spark yarn
1个回答
4
投票

我的理解是这个应用程序应占用集群中的5个核心(4个执行器核心和1个驱动核心)

这是YARN的完美情况,它可以为你管理的CPU提供5个内核。

但我没有在RM和Spark UI中观察到这一点。

由于完美的情况并不经常发生,因此我们可以从YARN获得尽可能多的内核,这样Spark应用程序就可以启动了。

Spark可以无限期地等待所请求的内核,但这并不总是符合您的喜好,是吗?

这就是为什么Spark on YARN有一个额外的检查(aka minRegisteredRatio),它是应用程序开始执行任务之前所请求的最少80%的内核。您可以使用spark.scheduler.minRegisteredResourcesRatio Spark属性来控制比率。这可以解释为什么你看到使用的内核少于请求的内核。

引用the official Spark documentation(突出我的):

spark.scheduler.minRegisteredResourcesRatio

YARN模式为0.8

注册资源(注册资源/预期资源总量)的最小比率(资源是纱线模式下的执行者,独立模式下的CPU核心和Mesos粗粒度模式['spark.cores.max'值是Mesos粗略的总预期资源 - 粒度模式])在调度开始之前等待。指定为0.0和1.0之间的双精度。无论是否达到最小资源比率,在调度开始之前等待的最长时间由config spark.scheduler.maxRegisteredResourcesWaitingTime控制。

© www.soinside.com 2019 - 2024. All rights reserved.