我使用以下内容在集群模式下部署spark作业
驱动核心 - 1 执行者核心 - 2 遗嘱执行人数 - 2。
我的理解是这个应用程序应占用集群中的5个核心(4个执行器核心和1个驱动核心),但我没有在RM和Spark UI中观察到这一点。
- 在资源管理器UI上,我看到只有4个核心用于此应用程序。
- 即使在Spark UI中(从RM单击ApplicationMaster URL),在executors选项卡下,驱动程序核心也显示为零。
我错过了什么吗?
集群管理器是YARN。
我的理解是这个应用程序应占用集群中的5个核心(4个执行器核心和1个驱动核心)
这是YARN的完美情况,它可以为你管理的CPU提供5个内核。
但我没有在RM和Spark UI中观察到这一点。
由于完美的情况并不经常发生,因此我们可以从YARN获得尽可能多的内核,这样Spark应用程序就可以启动了。
Spark可以无限期地等待所请求的内核,但这并不总是符合您的喜好,是吗?
这就是为什么Spark on YARN有一个额外的检查(aka minRegisteredRatio
),它是应用程序开始执行任务之前所请求的最少80%的内核。您可以使用spark.scheduler.minRegisteredResourcesRatio
Spark属性来控制比率。这可以解释为什么你看到使用的内核少于请求的内核。
引用the official Spark documentation(突出我的):
spark.scheduler.minRegisteredResourcesRatio
YARN模式为0.8
注册资源(注册资源/预期资源总量)的最小比率(资源是纱线模式下的执行者,独立模式下的CPU核心和Mesos粗粒度模式['spark.cores.max'值是Mesos粗略的总预期资源 - 粒度模式])在调度开始之前等待。指定为0.0和1.0之间的双精度。无论是否达到最小资源比率,在调度开始之前等待的最长时间由config
spark.scheduler.maxRegisteredResourcesWaitingTime
控制。