tbschema.json
是这样的:
[{"TICKET":"integer","TRANFERRED":"string","ACCOUNT":"STRING"}]
我用下面的代码加载
>>> df2 = sqlContext.jsonFile("tbschema.json")
>>> f2.schema
StructType(List(StructField(ACCOUNT,StringType,true),
StructField(TICKET,StringType,true),StructField(TRANFERRED,StringType,true)))
>>> df2.printSchema()
root
|-- ACCOUNT: string (nullable = true)
|-- TICKET: string (nullable = true)
|-- TRANFERRED: string (nullable = true)
为什么模式元素得到排序,当我希望元素在相同的顺序,因为他们出现在JSON。
数据类型整数已转换为StringType JSON已派生后,我如何保留数据类型
为什么模式元素得到排序,当我希望元素以相同的顺序出现在json.
因为字段的顺序不能保证。虽然没有明确说明,但当您查看JSON阅读器doctstring中提供的示例时,就会发现这一点。如果您需要特定的排序,您可以手动提供模式:
from pyspark.sql.types import StructType, StructField, StringType
schema = StructType([
StructField("TICKET", StringType(), True),
StructField("TRANFERRED", StringType(), True),
StructField("ACCOUNT", StringType(), True),
])
df2 = sqlContext.read.json("tbschema.json", schema)
df2.printSchema()
root
|-- TICKET: string (nullable = true)
|-- TRANFERRED: string (nullable = true)
|-- ACCOUNT: string (nullable = true)
导出json后,数据类型integer已转换为StringType,如何保留数据类型
JSON字段TICKET
的数据类型是字符串,因此JSON阅读器返回字符串。它是JSON阅读器,而不是某种模式阅读器。
一般来说,你应该考虑一些合适的格式,schema支持开箱即用,例如Parquet, Avro或Protocol Buffers。但如果你真的想玩JSON,你可以定义穷人的"模式"解析器,像这样:
from collections import OrderedDict
import json
with open("./tbschema.json") as fr:
ds = fr.read()
items = (json
.JSONDecoder(object_pairs_hook=OrderedDict)
.decode(ds)[0].items())
mapping = {"string": StringType, "integer": IntegerType, ...}
schema = StructType([
StructField(k, mapping.get(v.lower())(), True) for (k, v) in items])
JSON的问题是,无论如何都不能保证字段的顺序,更不用说处理丢失的字段、不一致的类型等等。因此,使用上述解决方案实际上取决于您对数据的信任程度。
或者,您可以使用内置的模式导入/导出实用程序。