pyspark - 连接两个 RDD - 缺少第三列

问题描述 投票:0回答:1

我是 Pyspark 的新手,请考虑:)

基本上我有这两个文本文件:

文件1:

  1,9,5
  2,7,4
  3,8,3

文件2:

 1,g,h
 2,1,j
 3,k,i

Python代码:

file1 = sc.textFile("/user/cloudera/training/file1.txt").map(lambda line: line.split(","))

file2 = sc.textFile("/user/cloudera/training/file2.txt").map(lambda line: line.split(","))

现在进行此连接:

join_file = file1.join(file2)

我希望得到这个:

(1,(9,5),(g,h))
(2,(7,4),(i,j))
(3,(8,3),(k,1))

但是,我得到了不同的结果:

(1, (9,g))
(3, (8,k))
(2, (7,1))

我是否缺少 Join 的任何参数?

谢谢!

python apache-spark join pyspark rdd
1个回答
2
投票

这应该可以解决问题:

file1 = sc.textFile("/FileStore/tables/f1.txt").map(lambda line: line.split(",")).map(lambda x: (x[0], list(x[1:])))
file2 = sc.textFile("/FileStore/tables/f2.txt").map(lambda line: line.split(",")).map(lambda x: (x[0], list(x[1:])))
join_file = file1.join(file2)
join_file.collect()

返回 Unicode u':

Out[3]: 
[(u'2', ([u'7', u'4'], [u'1', u'j'])),
 (u'1', ([u'9', u'5'], [u'g', u'h'])),
 (u'3', ([u'8', u'3'], [u'k', u'i']))]
© www.soinside.com 2019 - 2024. All rights reserved.