Apache Zeppelin没有显示Spark输出



我正在使用以下数据样本用Spark测试齐柏林飞船:

import org.apache.spark.graphx._
import org.apache.spark.rdd.RDD
val vertexArray = Array(
(1L, ("Alice", 28)),
(2L, ("Bob", 27)),
(3L, ("Charlie", 65)),
(4L, ("David", 42)),
(5L, ("Ed", 55)),
(6L, ("Fran", 50))
)
val edgeArray = Array(
Edge(2L, 1L, 7),
Edge(2L, 4L, 2),
Edge(3L, 2L, 4),
Edge(3L, 6L, 3),
Edge(4L, 1L, 1),
Edge(5L, 2L, 2),
Edge(5L, 3L, 8),
Edge(5L, 6L, 3)
)
val vertexRDD: RDD[(Long, (String, Int))] = sc.parallelize(vertexArray)
val edgeRDD: RDD[Edge[Int]] = sc.parallelize(edgeArray)
val graph: Graph[(String, Int), Int] = Graph(vertexRDD, edgeRDD)

我注意到Zeppelin并不总是能够显示输出,即使代码在Spark Shell中运行良好。下面是一个例子,你知道如何解决这个问题吗?

graph.vertices.filter { case (id, (name, age)) => age > 30 }.foreach {
case (id, (name, age)) => println(s"$name is $age")
}

这里确实没有什么需要修复的。这只是一种预期的行为。foreach闭包中的代码是在工人身上执行的,而不是在运行笔记本的驱动程序上执行的。它的输出可以根据您的配置捕获,但它不是您可以依赖的东西

如果你想从驱动程序输出东西,最好的选择是collect或转换toLocalIterator并本地迭代:

graph.vertices.filter { case (id, (name, age)) => age > 30 }.collect.foreach {
  case (id, (name, age)) => println(s"$name is $age")
}

最新更新