Pyspark2写入CSV问题?

问题描述 投票:0回答:1

我通过命令运行py文件:

/opt/cloudera/parcels/SPARK2-2.2.0.cloudera2-1.cdh5.12.0.p0.232957/bin/spark2-submit --jars /home/jsonnt200/geomesa-hbase-spark-runtime_2.11-1.3.5.1cc.jar,/ccri/hbase-site.zip geomesa_klondike_enrichment2.py

这会导致以下错误:

回溯(最近一次调用最后一次):文件“/home/jsonnt200/geomesa_klondike_enrichment2.py”,第6306行,在df2_500m.write.option('header','true')。csv('/ user / jsonnt200 / klondike_201708_1m_500meter_testEQ_union4')在csv self._jwrite中输入文件“/opt/cloudera/parcels/SPARK2-2.1.0.cloudera2-1.cdh5.7.0.p0.171658/lib/spark2/python/pyspark/sql/readwriter.py”,第711行.csv(path)文件“/opt/cloudera/parcels/SPARK2-2.1.0.cloudera2-1.cdh5.7.0.p0.171658/lib/spark2/python/lib/py4j-0.10.4-src.zip/ py4j / java_gateway.py“,第1133行,在调用文件中”/opt/cloudera/parcels/SPARK2-2.1.0.cloudera2-1.cdh5.7.0.p0.171658/lib/spark2/python/pyspark/sql/utils .py“,第79行,在deco中引发IllegalArgumentException(s.split(':',1)[1],stackTrace)pyspark.sql.utils.IllegalArgumentException:u'Illegal pattern component:XXX'

最大的问题是如果我通过ipython提交相同的py文件,它运行正常。关于什么可能是问题的任何想法?不幸的是,我必须使用spark2-submit进行隧道掘进。

python csv pyspark
1个回答
0
投票

你正在使用Spark 2.2.0,对吗?我在尝试读取csv文件时遇到了同样的问题。我认为,这个问题是timestampFormat变种。它的默认值是yyyy-MM-dd'T'HH:mm:ss.SSSXXX. Ref。 pyspark.sql documentation

当我将其更改为例如timestampFormat="yyyy-MM-dd",我的代码有效。这个post也提到了这个问题。希望能帮助到你 :)。

© www.soinside.com 2019 - 2024. All rights reserved.