如何使用pyspark计算apache spark数据框的大小?

问题描述 投票:7回答:1

有没有办法使用pyspark计算Apache spark数据框的大小(以字节为单位)?

apache-spark pyspark spark-dataframe
1个回答
0
投票

你为什么不只是缓存df然后查看存储下的spark UI并将单位转换为字节

df.cache()
© www.soinside.com 2019 - 2024. All rights reserved.