如何检查我的Spark Cluster是否有效?

问题描述 投票:0回答:2

我在Ubuntu 18.04上安装了带有两个节点的Spark 2.3.0:一个主节点(ip:172.16.10.20)和一个从节点(ip:172.16.10.30)。我可以检查一下这个Spark集群是否正常运行

jps -lm | grep spark
14165 org.apache.spark.deploy.master.Master --host 172.16.10.20 --port 7077 --webui-port 8080
13701 org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://172.16.10.20:7077

我试试这个简单的R脚本(使用sparklyr包):

library(sparklyr)
library(dplyr)
# Set your SPARK_HOME path                                                                                                                                                       
Sys.setenv(SPARK_HOME="/home/master/spark/spark-2.3.0-bin-hadoop2.7/")
config <- spark_config()
# Optionally you can modify config parameters here                                                                                                                               

sc <- spark_connect(master = "spark://172.16.10.20:7077", spark_home = Sys.getenv("SPARK_HOME"), config = config)
# Some test code, copying data to Spark cluster                                                                                                                                  
iris_tbl <- copy_to(sc, iris)
src_tbls(sc)

spark_apply(iris_tbl, function(data) {
   return(head(data))
})

所有命令都被执行,精细而流畅(但我的口味有点慢),并且火花日志保存在临时文件中。在查看日志文件时,我没有看到从节点,这让我想知道这个Spark是否真的在集群模式下运行。

我如何检查主从关系是否真的有效?

r apache-spark sparklyr
2个回答
0
投票

在你的情况下,请检查

172.16.10.20:8080 url并打开执行程序选项卡以查看正在运行的数字执行程序


0
投票

这是URL

http://[driverHostname]:4040 by default

http://<master-ip>:8080(webui-port)

Additional info on a monitor and inspect Spark job executions

command based status check stack question

© www.soinside.com 2019 - 2024. All rights reserved.