SPARK 数据帧在尝试将架构应用于 JSON 数据时返回 null



我正在使用SPARK Java API读取文本文件,将其转换为JSON,然后对其应用模式。架构可能因数据库中的映射表而异,这就是为什么我需要首先将文件转换为 JSON,以便架构映射不必按列顺序排列。这是我所做的:

// Defined the schema (basic representation)
StructType myschema = new StructType().add("a", DataTypes.StringType, true)
.add("b", DataTypes.StringType, true)
.add("x", DataTypes.StringType, true)
.add("y", DataTypes.IntegerType, true)
.add("z", DataTypes.BooleanType, true);
//Reading a pipe delimited text file as JSON, the file has less columns than myschema
Dataset<String> data = spark.read().option("delimiter","|").option("header","true").csv(myFile).toJSON();

上表返回如下内容:

data.show(false);
|value|
+----------------------------------------+
|      {"x":"name1","z":"true","y":"1234"}|
|      {"x":"name2","z":"false","y":"1445"}|
|      {"x":"name3","z":"true",:y":"1212"}|

当我运行这个时,我的问题出现了:

Dataset<Row> data_with_schema = spark.read().schema(myschema).json(data);

因为我的结果变成了这样:

data_with_schema.show(false);
|x|y|z|
+-------+-------+-------+
|null  |null  |null  |
|null  |null  |null  |
|null  |null  |null  |

我在堆栈溢出上读到这可能是因为我试图将 json 字符串转换为整数。但是,我尝试将数据变量定义为行数据集而不是字符串数据集,但存在不兼容的类型错误。我不确定解决方法是什么或真正的问题是什么。

找出问题所在:

如果输入文件中存在无法应用架构的数据,它将为表中的所有数据返回 Null。例如:"1n"无法转换为整数。如果将 DataTypes.IntegerType 应用于包含"1n"的列,则包含 null 值的整个表。

我认为这是由于 JSON 中的数据类型与定义的架构不匹配而发生的。 例如,在 JSON 中,属性具有整数的"年龄",但架构已将"年龄"定义为字符串类型。由于这种不匹配,所有数据都为空。

不确定这是否有帮助,但在 Spark 中读取 JSON 文件时,请确保架构和 JSON 文件中的列名称完全匹配。否则,它将显示空值。

最新更新