有没有一种方法可以在spark中创建所有列的列表

问题描述 投票:0回答:1

我有一个数据集:enter image description here

我需要获取每个第一列值的所有值的列表(在这种情况下,只有两个,1和2)。

我试图将第一列分组,我想按所有列进行汇总。这是我使用以下代码按第二列进行聚合时得到的结果:

df.groupBy("_c0").agg(collect_list("_c1")).show():

enter image description here

想法是为每个第一列值获取一个列表中其他列中的所有值。

我有一个dataSet:在此处输入图像描述,我需要获取每个第一列值的所有值的列表(在这种情况下,只有两个,1和2)。我试图通过第一列和我...

sql scala apache-spark
1个回答
0
投票

代码说明内联

© www.soinside.com 2019 - 2024. All rights reserved.