使用Spark Local从GCS加载数据

问题描述 投票:1回答:1

我正在尝试从本地计算机上的GCS存储桶中读取数据,以进行测试。我想在我下载GCS Hadoop Connector JAR的云中对一些数据进行抽样。

并设置sparkConf如下:

conf = SparkConf() \
    .setMaster("local[8]") \
    .setAppName("Test") \
    .set("spark.jars", "path/gcs-connector-hadoop2-latest.jar") \
    .set("spark.hadoop.google.cloud.auth.service.account.enable", "true") \
    .set("spark.hadoop.google.cloud.auth.service.account.json.keyfile", "path/to/keyfile")

sc = SparkContext(conf=conf)

spark = SparkSession.builder \
    .config(conf=sc.getConf()) \
    .getOrCreate()

spark.read.json("gs://gcs-bucket")

我也试过这样设置:

sc._jsc.hadoopConfiguration().set("fs.AbstractFileSystem.gs.impl",  "com.google.cloud.hadoop.fs.gcs.GoogleHadoopFS")
sc._jsc.hadoopConfiguration().set("fs.gs.auth.service.account.json.keyfile", "path/to/keyfile")
sc._jsc.hadoopConfiguration().set("fs.gs.auth.service.account.enable", "true")

我通过PIP使用PySpark安装并使用IntelliJ的单元测试模块运行代码

py4j.protocol.Py4JJavaError: An error occurred while calling o128.json.
: java.io.IOException: No FileSystem for scheme: gs

我该怎么办?

谢谢!

python-3.x intellij-idea pyspark google-cloud-platform python-unittest
1个回答
0
投票

要解决此问题,除了已配置的属性外,还需要为fs.gs.impl属性添加配置:

sc._jsc.hadoopConfiguration().set("fs.gs.impl", "com.google.cloud.hadoop.fs.gcs.GoogleHadoopFileSystem")
© www.soinside.com 2019 - 2024. All rights reserved.