一个flink作业中的两个数据流



我在一个flink作业中有两个无限的kafka数据流,例如:

StreamExecutionEnvironment environment = StreamExecutionEnvironment.getExecutionEnvironment();
DataStream kafka1 = ...
DataStream kafka2 = ...
kafka1.process();
kafka2.process();
environment.execute();

两个流的过程是并行还是顺序?

如果仅使用一个环境,则任务将并行运行。

相关内容

  • 没有找到相关文章

最新更新