是否有可能在一个火花上下文中监听两个数据流?



我使用Spark 1.4.1。我想同时听两个不同的流,并在这两个流中找到共同的事件。

例如:假设一个温度数据流和另一个压力数据流。我想同时监听两个数据流,并在两个数据流都高时发出警报。

我有两个问题

  • 是否有可能在一个火花中处理两个不同的流上下文。
  • 是否可以在单个驱动程序中具有可变窗口大小的多个spark上下文?

关于如何处理上述情况的任何其他想法也将不胜感激。

谢谢

你可以从同一个StreamingContext创建多个dstream。例如

val dstreamTemp: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "TemperatureData").map(...)
val dstreamPres: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "PressureData")

它们都将具有与StreamingContext中定义的相同的"批处理持续时间"。但是,您可以创建新的Windows:

val windowedStreamTemp = dstreamTemp.window(Seconds(20))
val windowedStreamPres = dstreamPres.window(Minutes(1))

你也可以连接流(假设一个键值流)。例如

val joinedStream = windowedStreamTemp.join(windowedStreamPres)

您可以在joinedStream上发出警报。

最新更新