我应该避免在数据集/数据帧中使用groupby()吗? [重复]

问题描述 投票:2回答:1

这个问题在这里已有答案:

我知道在RDD中我们不鼓励使用groupByKey,并鼓励使用reduceByKey()和aggregateByKey()之类的替代方法,因为这些其他方法会先减少每个分区,然后执行groupByKey(),从而减少数据被洗牌。

现在,我的问题是,这仍然适用于数据集/数据帧吗?我在想,既然催化剂引擎做了很多优化,催化剂会自动知道它应该减少每个分区,然后执行groupBy。我对么?或者我们仍然需要采取措施确保在groupBy之前执行每个分区的减少。

apache-spark optimization group-by dataset spark-dataframe
1个回答
4
投票

groupBy应该用于Dataframes和Datasets。您认为完全正确,Catalyst Optimizer将构建计划并优化GroupBy中的所有入口以及您要执行的其他聚合。

有一个很好的例子,就是在这个link上的spark 1.4中,它显示了reduceByKey与RDD和GroupBy与DataFrame的比较。

而且你可以看到它比RDD快得多,所以groupBy优化所有执行以获得更多细节,你可以通过introduction of DataFrames看到DataBricks的官方帖子

© www.soinside.com 2019 - 2024. All rights reserved.