如何在 flink 流式处理中连续读取 AzureDataLake 中的文件内容



我正在使用 flink 流从 AzureDataLake 存储中的文件中读取数据。是否有任何连接器可用于在文件更新时从存储在 Azure 数据湖中的文件中连续读取数据。怎么办?

Azure Data Lake Store (ADLS( 支持与 HDFS 兼容的 REST API 接口,并在此处进行了记录 https://learn.microsoft.com/en-us/rest/api/datalakestore/webhdfs-filesystem-apis。

目前没有可用的 API 或连接器,可以在文件/文件夹更新时轮询 ADLS 并通知/读取数据。您可以使用上面提供的 API 在自定义连接器中实现这一点。连接器需要定期轮询 ADLS 帐户/文件夹以识别更改。

谢谢萨钦·谢斯项目经理Azure Data Lake

相关内容

  • 没有找到相关文章

最新更新