我有一个RDD包含每行RDD[(Array[Int], Array[Double])]
两个数组。对于每一行,这两个数组的大小与n
相似。但是,每行都有不同大小的n
,n
可能高达200.样本数据如下:
(Array(1, 3, 5), Array(1.0, 1.0, 2.0))
(Array(6, 3, 1, 9), Array(2.0, 1.0, 2.0, 1.0))
(Array(2, 4), Array(1.0, 3.0))
. . .
我想根据每行的索引在这两个数组之间进行组合。所以,预期的产出如下:
((1,1.0), (3,1.0), (5,2.0))
((6,2.0), (3,1.0), (1,2.0), (9,1.0))
((2,1.0), (4,3.0))
这是我的代码:
val data = spark.sparkContext.parallelize(Seq( (Array(1, 3, 5),Array(1.0, 1.0, 2.0)), (Array(6, 3, 1,9),Array(2.0, 1.0, 2.0, 1.0)) , (Array(2, 4),Array(1.0, 3.0)) ) )
val pairArr = data.map{x =>
(x._1(0), x._2(0))
}
//pairArr: Array((1,1.0), (6,2.0), (2,1.0))
此代码仅获取每行中第一个索引的值。 任何人都可以指导我如何获得预期的产量?
谢谢。
你需要zip
每个元组中的两个元素:
data.map(x => x._1.zip(x._2)).collect
// res1: Array[Array[(Int, Double)]] = Array(Array((1,1.0), (3,1.0), (5,2.0)), Array((6,2.0), (3,1.0), (1,2.0), (9,1.0)), Array((2,1.0), (4,3.0)))
或者使用模式匹配:
data.map{ case (x, y) => x.zip(y) }.collect
// res0: Array[Array[(Int, Double)]] = Array(Array((1,1.0), (3,1.0), (5,2.0)), Array((6,2.0), (3,1.0), (1,2.0), (9,1.0)), Array((2,1.0), (4,3.0)))