序列文件的成长目录作为Apache Flink的流输入



我有一个hadoop sequence文件的目录,其中间隔添加了更多序列文件。我希望流媒体API的Apache Flink作业来源是序列文件的增长目录。Apache Flink有没有办法这样做?

您可以尝试此API以在StreamExecutionEnvironment中流式传输:

readFile(FileInputFormat<OUT> inputFormat,
         String filePath,
         FileProcessingMode watchType,
         long interval)

,但我尚未找到Hadoop序列文件的预定义InputFormat。可能您必须提供一个。

相关内容

  • 没有找到相关文章

最新更新