如何在R中使用readLines读取某个范围之间的所有行?

问题描述 投票:0回答:1

我试图将大型JSONL(.gz)文件拆分为多个.csv文件。我已经能够使用下面的代码为前25.000个条目创建一个有效的.csv文件。我现在想要读取并解析25.001到50.000行,并且无法这样做。我觉得它应该很容易完成,但到目前为止,我的搜索一直没有结果。

有没有办法在readLiness函数中操作'n'因子来选择特定范围的行?

(p.s.我正在学习;))

setwd("filename")

a<-list.files(pattern="(.*?).0.jsonl.gz")
a[1]

raw.data<- readLines(gzfile(a[1]), warn = "T",n=25000) 
rd <- fromJSON(paste("[",paste(raw.data,collapse=','),']'))
rd2<-do.call("cbind", rd) 

file=paste0(a,".csv.gz") 
write.csv.gz(rd2, file, na="", row.names=FALSE)
r readlines jsonlite
1个回答
0
投票

read_lines()包中的readr函数比base::readLines()快,并且可用于指定读取的开始和结束行。例如:

library(readr)
myFile <- "./data/veryLargeFile.txt"

first25K <- read_lines(myFile,skip=0,n_max = 25000)

second25K <- read_lines(myFile,skip=25000,n_max=25000) 

这是一个使用NOAA StormData数据集的完整工作示例。该文件描述了1950年至2011年间美国超过900,000个极端天气事件的位置,事件类型和损坏信息。在下载和解压缩文件后,我们将使用readr::read_lines()读取25,000组中的前50,000行。

警告:zip文件大约是50Mb。

library(R.utils) 
library(readr)
dlMethod <- "curl"
if(substr(Sys.getenv("OS"),1,7) == "Windows") dlMethod <- "wininet"
url <- "https://d396qusza40orc.cloudfront.net/repdata%2Fdata%2FStormData.csv.bz2"
download.file(url,destfile='StormData.csv.bz2',method=dlMethod,mode="wb")
bunzip2("StormData.csv.bz2","StormData.csv")

first25K <- read_lines("StormData.csv",skip=0,n_max = 25000)

second25K <- read_lines("StormData.csv",skip=25000,n_max=25000)

...以及在RStudio环境查看器中查看的对象:

enter image description here

以下是在配备Intel i7-6500U处理器的HP Spectre x-360笔记本电脑上比较base::readLines()readr::read_lines()的性能时序。

> # check performance of readLines()
> system.time(first25K <- readLines("stormData.csv",n=25000))
   user  system elapsed 
   0.05    0.00    0.04 
> # check performance of readr::read_lines()
> system.time(first25K <- read_lines("StormData.csv",skip=0,n_max = 25000))
   user  system elapsed 
   0.00    0.00    0.01 
© www.soinside.com 2019 - 2024. All rights reserved.