我使用Spark 1.4.1。我想同时听两个不同的流,并在这两个流中找到共同的事件。
例如:假设一个温度数据流和另一个压力数据流。我想同时监听两个数据流,并在两个数据流都高时发出警报。
我有两个问题
- 是否有可能在一个火花中处理两个不同的流上下文。
- 是否可以在单个驱动程序中具有可变窗口大小的多个spark上下文?
关于如何处理上述情况的任何其他想法也将不胜感激。
谢谢
你可以从同一个StreamingContext创建多个dstream。例如
val dstreamTemp: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "TemperatureData").map(...)
val dstreamPres: DStream[String, Int] = KafkaUtils.createStream(ssc, zkQuorum, group, "PressureData")
它们都将具有与StreamingContext中定义的相同的"批处理持续时间"。但是,您可以创建新的Windows:
val windowedStreamTemp = dstreamTemp.window(Seconds(20))
val windowedStreamPres = dstreamPres.window(Minutes(1))
你也可以连接流(假设一个键值流)。例如
val joinedStream = windowedStreamTemp.join(windowedStreamPres)
您可以在joinedStream
上发出警报。