这个问题在这里已有答案:
我知道在RDD中我们不鼓励使用groupByKey,并鼓励使用reduceByKey()和aggregateByKey()之类的替代方法,因为这些其他方法会先减少每个分区,然后执行groupByKey(),从而减少数据被洗牌。
现在,我的问题是,这仍然适用于数据集/数据帧吗?我在想,既然催化剂引擎做了很多优化,催化剂会自动知道它应该减少每个分区,然后执行groupBy。我对么?或者我们仍然需要采取措施确保在groupBy之前执行每个分区的减少。
groupBy
应该用于Dataframes和Datasets。您认为完全正确,Catalyst Optimizer将构建计划并优化GroupBy中的所有入口以及您要执行的其他聚合。
有一个很好的例子,就是在这个link上的spark 1.4中,它显示了reduceByKey与RDD和GroupBy与DataFrame的比较。
而且你可以看到它比RDD快得多,所以groupBy优化所有执行以获得更多细节,你可以通过introduction of DataFrames看到DataBricks的官方帖子