pyspark 数据帧 API 强制转换('timestamp') 不适用于时间戳字符串



>我有这样的数据:

{"id":1,"createdAt":"2016-07-01T16:37:41-0400"}
{"id":2,"createdAt":"2016-07-01T16:37:41-0700"}
{"id":3,"createdAt":"2016-07-01T16:37:41-0400"}
{"id":4,"createdAt":"2016-07-01T16:37:41-0700"}
{"id":5,"createdAt":"2016-07-06T09:48Z"}
{"id":6,"createdAt":"2016-07-06T09:48Z"}
{"id":7,"createdAt":"2016-07-06T09:48Z"}

我正在将createdAt字段转换为时间戳,如下所示。

from pyspark.sql import SQLContext
from pyspark.sql.functions import *
sqlContext = SQLContext(sc)
df = sqlContext.read.json('data/test.json')
dfProcessed = df.withColumn('createdAt', df.createdAt.cast('timestamp'))
dfProcessed.printSchema()
dfProcessed.collect()

我得到的输出如下。我得到createdAt的无值。我该怎么做才能将字段检索为正确的时间戳?

root
 |-- createdAt: timestamp (nullable = true)
 |-- id: long (nullable = true)
[Row(createdAt=None, id=1),
 Row(createdAt=None, id=2),
 Row(createdAt=None, id=3),
 Row(createdAt=None, id=4),
 Row(createdAt=None, id=5),
 Row(createdAt=None, id=6),
 Row(createdAt=None, id=7)]

为了简单地将字符串列转换为时间戳,字符串列的格式必须正确。

若要检索"createdAt"列作为时间戳,可以编写将转换字符串的 UDF 函数

"2016-07-01T16:37:41-0400"

"2016-07-01 16:37:41"

并将"createdAt"列转换为新格式(不要忘记处理时区字段)。

一旦您有一个包含时间戳作为字符串的列,例如"2016-07-01 16:37:41",一个简单的强制转换为时间戳就可以完成这项工作,就像您在代码中一样。

您可以在此处阅读有关 Spark 中的日期/时间/字符串处理的更多信息。

相关内容

  • 没有找到相关文章

最新更新