[在部署模式下提交Spark应用程序=集群时如何读取边缘节点上存在的文件

问题描述 投票:0回答:1

我有一个spark scala应用程序(spark 2.4)。我将存在于edge node上的文件作为我的驱动程序(主)程序的参数传递,我使用scala.io.Source读取了此文件。现在,当我执行spark-submit并提及--deploy-mode client时,应用程序运行正常,它可以读取文件。但是当我使用deploy-mode cluster时。应用程序失败,提示找不到文件。有没有一种方法可以在群集模式下从边缘节点读取文件。

谢谢。

scala apache-spark spark-submit
1个回答
0
投票

cluster模式下,可以使用--filesspark-submit选项。

示例:https://cloud.ibm.com/docs/services/AnalyticsforApacheSpark?topic=AnalyticsforApacheSpark-specify-file-path

另一种选择是将文件放置在分布式文件系统中,例如hdfsdbfs

© www.soinside.com 2019 - 2024. All rights reserved.