无法在spark本地生成badrecord文件

问题描述 投票:0回答:1

我需要将输入 csv 文件中的所有不良记录写入 Spark 本地的 badrecordfile 中。我正在使用 Eclipse 来实现同样的目的。

代码:

    inputDFRdd = spark.read.format("com.databricks.spark.csv")
        .option("mode", "DROPMALFORMED")
        .option("badRecordsPath", "/src/test/resources/bad.txt")
        .option("delimiter", ";")
        .option("header", "false")
        .schema(customSchema)
        .option("escape", "\"").load(filepath).rdd.zipWithIndex().map(line => Row.fromSeq(Seq(line._2 + 1) ++ line._1.toSeq)

eclipse apache-spark
1个回答
0
投票

这个 badRecords 文件创建是 databricks 的一个特定功能。这在本地模式下不起作用。

© www.soinside.com 2019 - 2024. All rights reserved.