Java Spark:com.mongodb.spark.config.writeconfig问题

问题描述 投票:1回答:1

我试图通过java spark连接器与MongoDB连接,当我提交jar并在spark shell中运行jar时,我收到错误“com.mongodb.spark.config.writeconfig”。这里的错误截图:enter image description here

你能帮我解决这个问题吗?我也试过这个,但没有成功。

  • $。/ bin / sparkR --conf“spark.mongodb.input.uri = mongodb://127.0.0.1/test.myCollection?readPreference = primaryPreferred”./ bin/sparkR --conf“spark.mongodb.output.uri = mongodb://127.0.0.1/db.test“./bin/spark-shell --packages org.mongodb.spark:mongo-spark-connector_2.11:2.2.0
  • $ spark-submit --master local --class com.test.spark.SparkClient /home/otalogin/SparkClient.jar
  • $ spark-submit --master local --class com.test.spark.SparkClient /home/otalogin/SparkClient.jar --jar mongo-spark-connector_2.11:2.2.0

但得到同样的错误。

请帮我解决这个问题。

java mongodb apache-spark spark-streaming
1个回答
0
投票

正如Darshan M所建议的那样,您需要提供mongo依赖项。

最简单的方法是使用maven / sbt构建一个胖罐。

如果你使用maven,配置你的pom.xml,this可以帮助你。如果你使用sbt,that可以帮助你。

© www.soinside.com 2019 - 2024. All rights reserved.