我有一个 PyArrow Parquet 文件太大,无法在内存中处理。由于数据可以轻松分区到不同的分片中,因此我想手动对其进行分区并从文件中创建一个 PyArrow 数据集。当我进行分区时,分区内的行本身需要重新排序,以便可以按自然顺序迭代数据。
这里是一个架构片段(如果相关)。分区键是
chain_id
:
pa.schema([
("chain_id", pa.uint32()),
("pair_id", pa.uint64()),
("block_number", pa.uint32()),
("timestamp", pa.timestamp("s")),
("tx_hash", pa.binary(32)),
("log_index", pa.uint32()),
])
我打算使用它的过程
chain_id
)然而,PyArrow 上关于 FileSystemDataset 的文档很薄弱。我的问题是
FilesystemDataset
?pyarrow.dataset.FileSystemDataset
以插入的预排序顺序读取数据,to_batches
给出什么样的排序保证?