apache flink:诸如Spark之类的CSV文件的架构



在火花中,我们可以使用推论模式从文件中动态读取模式,例如:

df = sqlContext.read.format('com.databricks.spark.csv').options(delimiter='|',header='true', inferschema='true').load('cars.csv')

有没有办法在Flink中做同样的方法?

flink没有内置支持CSV文件的自动架构推理。

您可以通过分析CSV文件的第一行并生成相应的CSVTableSource来实现此类功能。

相关内容

  • 没有找到相关文章

最新更新