在Spark RDD (Scala)中指定元素子集



我的数据集是一个超过140列的RDD[Array[String]]。如何在不硬编码列号(.map(x => (x(0),x(3),x(6)...))的情况下选择列的子集?

这是我到目前为止尝试过的(成功):

val peopleTups = people.map(x => x.split(",")).map(i => (i(0),i(1)))

但是,我需要更多的列,并且希望避免对它们进行硬编码。

这是我到目前为止尝试过的(我认为会更好,但是失败了):

// Attempt 1
val colIndices = [0,3,6,10,13]
val peopleTups = people.map(x => x.split(",")).map(i => i(colIndices))
// Error output from attempt 1:
<console>:28: error: type mismatch;
 found   : List[Int]
 required: Int
       val peopleTups = people.map(x => x.split(",")).map(i => i(colIndices))
// Attempt 2
colIndices map peopleTups.lift
// Attempt 3
colIndices map peopleTups
// Attempt 4
colIndices.map(index => peopleTups.apply(index))

我发现了这个问题并尝试了它,但是因为我正在查看RDD而不是数组,所以它不起作用:我如何使用Scala和Spark从数组中选择非顺序子集元素?

您应该映射RDD而不是索引。

val list = List.fill(2)(Array.range(1, 6))
// List(Array(1, 2, 3, 4, 5), Array(1, 2, 3, 4, 5))
val rdd = sc.parallelize(list) // RDD[Array[Int]]
val indices = Array(0, 2, 3)
val selectedColumns = rdd.map(array => indices.map(array)) // RDD[Array[Int]]
selectedColumns.collect() 
// Array[Array[Int]] = Array(Array(1, 3, 4), Array(1, 3, 4))

这个怎么样?

val data = sc.parallelize(List("a,b,c,d,e", "f,g,h,i,j"))
val indices =  List(0,3,4)
data.map(_.split(",")).map(ss => indices.map(ss(_))).collect

res1: Array[List[String]] = Array(List(a, d, e), List(f, i, j))

最新更新