错误:将pyspark数据帧写入Habse时出错

问题描述 投票:0回答:1

我正在尝试将pyspark数据帧写入Hbase。面对错误。

我的集群上的Spark和Hbase版本是:

火花版本:2.4.0Hbase版本:1.4.8

火花提交

 spark-submit --jars /tmp/hbase-spark-1.0.0.jar   --packages com.hortonworks:shc-core:1.1.1-2.1-s_2.11 --repositories http://repo.hortonworks.com/content/groups/public/ --files /etc/hbase/conf/hbase-site.xml to_hbase.py

错误:

enter image description here

任何帮助将不胜感激!

apache-spark pyspark hbase pyspark-sql
1个回答
0
投票

这是一个已知的问题-在spark2.4中使用spark-habse-connector(shc)。@dhananjay_patka修复了问题。

检查:SHC With spark 2.4 his fix

© www.soinside.com 2019 - 2024. All rights reserved.