是否可以在Sparklyr中将ORC文件读取到Spark数据框?

问题描述 投票:3回答:1

我知道sparklyr有以下读取文件方法:

  • spark_read_csv
  • spark_read_parquet
  • spark_read_json

那么阅读orc文件怎么样?这个图书馆是否支持它?

我知道我可以在SparkR或read.orc中使用this solution,但我想将我的代码保留在sparklyr中。

r apache-spark sparkr sparklyr orc
1个回答
5
投票

您可以像我在Transfer data from database to Spark using sparklyr的回答中描述的那样使用低级Spark API:

library(dplyr)
library(sparklyr)

sc <- spark_connect(...)

spark_session(sc) %>% 
  invoke("read") %>% 
  invoke("format", "orc") %>%
  invoke("load", path) %>% 
  invoke("createOrReplaceTempView", name)

df <- tbl(sc, name)

其中name是用于标识表的任意名称

在当前的sparklyr版本中,你应该能够用spark_read_source替换上面的:

spark_read_source(sc, name, source = "orc", options = list(path = path))
© www.soinside.com 2019 - 2024. All rights reserved.