我想通过一次又一次地调用它来制作一个小数据流



我有一个问题,我有一个小的CSV数据,我可以在kafka的帮助下在flink上启动。我的问题是,我可以使用窗口和触发器一次又一次地调用相同的数据,还是只调用一次我的数据?

1,35
2,45
3,55
4,65
5,555 

这是我想要一次又一次调用的数据。虽然我自己不这么认为,但由于我是初学者,最好采取第二意见。感谢您的帮助

不确定一次又一次的调用数据是什么意思。但是你可以使用 SourceFunction 在 Flink 中创建该数据流。例如,以下源创建该 csv 文件的流,并每秒发出一次。

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
DataStream<String> csvStream = env.addSource(new SourceFunction<String>() {
@Override
public void run(SourceContext<String> sourceContext) throws Exception {
String data = "1,35n" +
"2,45n" +
"3,55n" +
"4,65n" +
"5,555";
while(true) {
sourceContext.collect(data);
TimeUnit.SECONDS.sleep(1);
}
}
@Override
public void cancel() {
}
});

相关内容

  • 没有找到相关文章