如何在Spark中将大量文件加载到一个RDD中

问题描述 投票:0回答:2

我使用saveAsTextFile方法来保存RDD,但它不在文件中,而是有许多部分文件如下图所示。

enter image description here

所以,我的问题是如何将这些文件重新加载到一个RDD中。

apache-spark hdfs rdd
2个回答
0
投票

您正尝试在本地使用Spark,而不是以分布式方式使用我的猜测。当您使用saveAsTextFile时,它只是使用Hadoop的文件编写器保存这些文件并为每个RDD分区创建一个文件。如果你想要一个文件,你可以做的一件事是coalesce将分区写入1个文件。但是,如果你上一个文件夹,你会发现该文件夹的名称是你保存的名称。所以你可以使用相同的路径sc.textFile,它将再次将所有内容拉入分区。


0
投票

你知道吗?我发现它非常优雅:说你的文件都在/ output目录中,只需使用以下命令将它们合并为一个,然后你可以轻松地重新加载为一个RDD:

hadoop fs -getmerge /output /local/file/path

没什么大不了的,我是雷锋。

© www.soinside.com 2019 - 2024. All rights reserved.