空值不在“org.zuinnote.spark.office.excel”包中写入

问题描述 投票:1回答:2
 Dataset<Row>  SourcePropertSet = sqlContext.read()
             .format("com.crealytics.spark.excel")
            .option("location", "E:\\XLS\\NEWFILE.xlsx")
             .option("useHeader", "false")
             .option("treatEmptyValuesAsNulls", "true")
             .option("inferSchema", "true")
             .option("addColorColumns", "false")
             .load();


SourcePropertSet = SourcePropertSet.repartition(1).select("*")
.write().option("treatEmptyValuesAsNulls", "true")
.format("org.zuinnote.spark.office.excel")
.mode(SaveMode.Overwrite)
.save("E:\\XLS\\NEWFILE1.xlsx");

对于上面的代码,还有其他选项可以在写入xslx格式时考虑空值。 我得到了scala.MatchError:引发了null异常,如果特定列包含任何空值。 解决的可能解决方案是通过正确的逻辑代码或查找.options,还是有任何其他包以.xslx格式执行此操作?

java sql excel apache-spark apache-spark-dataset
2个回答
1
投票

请检查HadoopOffice(目前为1.0.4)的版本,特别是DS(https://github.com/ZuInnoTe/spark-hadoopoffice-ds)。此外,某些参数不存在,因此请查看文档。在Github上直接使用项目创建问题也可以更快地解决这些问题。


0
投票
.na().fill(" "); .show(false);

此代码解决了空值问题。在之前版本的“org.zuinnote.spark.office.excel”包中

© www.soinside.com 2019 - 2024. All rights reserved.