我是Scala和Spark的新手,所以我希望有人能解释为什么aggregateByKey在抽象类中无法编译。这是我能想到的最简单的例子:
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.rdd.RDD
abstract class AbstractKeyCounter[K] {
def keyValPairs(): RDD[(K, String)]
def processData(): RDD[(K, Int)] = {
keyValPairs().aggregateByKey(0)(
(count, key) => count + 1,
(count1, count2) => count1 + count2
)
}
}
class StringKeyCounter extends AbstractKeyCounter[String] {
override def keyValPairs(): RDD[(String, String)] = {
val sc = new SparkContext(new SparkConf().setMaster("local").setAppName("counter"))
val data = sc.parallelize(Array("foo=A", "foo=A", "foo=A", "foo=B", "bar=C", "bar=D", "bar=D"))
data.map(_.split("=")).map(v => (v(0), v(1)))
}
}
给了:
Error:(11, 19) value aggregateByKey is not a member of org.apache.spark.rdd.RDD[(K, String)]
keyValPairs().aggregateByKey(0)(
^
如果我使用单个具体类,它将编译并成功运行:
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.rdd.RDD
class StringKeyCounter {
def processData(): RDD[(String, Int)] = {
val sc = new SparkContext(new SparkConf().setMaster("local").setAppName("counter"))
val data = sc.parallelize(Array("foo=A", "foo=A", "foo=A", "foo=B", "bar=C", "bar=D", "bar=D"))
val keyValPairs = data.map(_.split("=")).map(v => (v(0), v(1)))
keyValPairs.aggregateByKey(0)(
(count, key) => count + 1,
(count1, count2) => count1 + count2
)
}
}
我错过了什么?
如果您更改:
abstract class AbstractKeyCounter[K] {
:
abstract class AbstractKeyCounter[K : ClassTag] {
这将编译。
?aggregateByKey
是PairRDDFunctions
的一个方法(您的RDD
隐式地转换为该类),它具有以下签名:
class PairRDDFunctions[K, V](self: RDD[(K, V)])
(implicit kt: ClassTag[K], vt: ClassTag[V], ord: Ordering[K] = null)
这意味着它的构造函数期望隐式类型为ClassTag[K]
和vt: ClassTag[V]
的值。您的抽象类不知道K是什么,因此无法提供匹配的隐式值。这意味着到PairRDDFunctions
的隐式转换"失败"(编译器不执行转换),因此无法找到方法aggregateByKey
。
添加[K : ClassTag]
是在抽象类构造函数中添加隐式参数implicit kt: ClassTag[K]
的简写,然后由编译器使用并传递给PairRDDFunctions
的构造函数。
有关ClassTags及其优点的更多信息,请参阅这篇好文章。