RDD操作对pyspark中的值进行排序

问题描述 投票:0回答:1

我具有如下文件格式,

0, Alpha,-3.9, 4, 2001-02-01, 5, 20
0, Beta,-3.8, 3, 2002-02-01, 6, 21
1, Gamma,-3.7, 8, 2003-02-01, 7, 22
0, Alpha,-3.5, 4, 2004-02-01, 8, 23
0, Alpha,-3.9, 4, 2005-02-01, 8, 27

我想使用rdd操作按1st elements在每行中对不同的3rd elements进行排序。我更喜欢得到以下输出,

(Beta, 3)
(Alpha, 4)
(Gamma, 8)

这是我目前所做的,

rdd = sc.textFile(myDataset)
list_ = rdd.map(lambda line: line.split(",")).map(lambda e : e[1]).distinct().collect() 
new_ = list_.sortBy(lambda e : e[2])

但是我无法根据需要进行排序。谁能说出仅基于rdd的操作方法吗?

python python-3.x apache-spark pyspark rdd
1个回答
0
投票

[rdd = sc.textFile(myDataset)是正确的。

list_ = rdd.map(lambda line: line.split(",")).map(lambda e : e[1]).distinct().collect() 
new_ = list_.sortBy(lambda e : e[2]) # e[2] does not exist.

您已经在list_上调用了collect,因此它不再是RDD。然后,您继续在其上调用sortBy,因此它将不起作用。也许您在发布时犯了这个错误。主要问题是地图操作。您需要创建一个pairWiseRdd,但尚未创建一个。因此,没有e[2]可供选择。见下文。

>>> rdd.map(lambda line: line.split(",")).map(lambda e : e[1]).collect()
[' Alpha', ' Beta', ' Gamma', ' Alpha', ' Alpha']

以上没有您使用distinct()所需的值相反,您需要执行此操作

>>> list_ = rdd.map(lambda line: line.split(",")).map(lambda e : (e[1],e[3]))
>>> list_.collect()
[(' Alpha', ' 4'),
 (' Beta', ' 3'),
 (' Gamma', ' 8'),
 (' Alpha', ' 4'),
 (' Alpha', ' 4')]
>>> distinct_rdd = list_.distinct() #making stuff distinct
>>> distinct_rdd.collect()
[(' Alpha', ' 4'), (' Beta', ' 3'), (' Gamma', ' 8')]

现在我们已经制作了pairWiseRdd,我们可以使用每对的第二个值对其进行排序。

>>> sorted_rdd = distinct_rdd.sortBy( lambda x:x[1] )
>>> sorted_rdd.collect()
[(' Beta', ' 3'), (' Alpha', ' 4'), (' Gamma', ' 8')]
© www.soinside.com 2019 - 2024. All rights reserved.