通过索引关联RDD中的两个数组

问题描述 投票:1回答:1

我有一个RDD包含每行RDD[(Array[Int], Array[Double])]两个数组。对于每一行,这两个数组的大小与n相似。但是,每行都有不同大小的nn可能高达200.样本数据如下:

(Array(1, 3, 5), Array(1.0, 1.0, 2.0))
(Array(6, 3, 1, 9), Array(2.0, 1.0, 2.0, 1.0))
(Array(2, 4), Array(1.0, 3.0))
. . .

我想根据每行的索引在这两个数组之间进行组合。所以,预期的产出如下:

((1,1.0), (3,1.0), (5,2.0))
((6,2.0), (3,1.0), (1,2.0), (9,1.0))
((2,1.0), (4,3.0))

这是我的代码:

val data = spark.sparkContext.parallelize(Seq( (Array(1, 3, 5),Array(1.0, 1.0, 2.0)), (Array(6, 3, 1,9),Array(2.0, 1.0, 2.0, 1.0)) , (Array(2, 4),Array(1.0, 3.0)) ) )
val pairArr = data.map{x =>
  (x._1(0), x._2(0))
}
//pairArr: Array((1,1.0), (6,2.0), (2,1.0))

此代码仅获取每行中第一个索引的值。 任何人都可以指导我如何获得预期的产量?

谢谢。

arrays scala apache-spark rdd
1个回答
2
投票

你需要zip每个元组中的两个元素:

data.map(x => x._1.zip(x._2)).collect
// res1: Array[Array[(Int, Double)]] = Array(Array((1,1.0), (3,1.0), (5,2.0)), Array((6,2.0), (3,1.0), (1,2.0), (9,1.0)), Array((2,1.0), (4,3.0)))

或者使用模式匹配:

data.map{ case (x, y) => x.zip(y) }.collect
// res0: Array[Array[(Int, Double)]] = Array(Array((1,1.0), (3,1.0), (5,2.0)), Array((6,2.0), (3,1.0), (1,2.0), (9,1.0)), Array((2,1.0), (4,3.0)))
© www.soinside.com 2019 - 2024. All rights reserved.