使用 Scala 2.10.4 和 Spark 1.5.1 和 Spark 1.6
sqlContext.sql(
"""
|select id,
|to_date(from_utc_timestamp(from_unixtime(at), 'US/Pacific')),
|from_utc_timestamp(from_unixtime(at), 'US/Pacific'),
|from_unixtime(at),
|to_date(from_unixtime(at)),
| at
|from events
| limit 100
""".stripMargin).collect().foreach(println)
火花提交选项: --driver-java-options '-Duser.timezone=US/Pacific'
结果:
[56d2a9573bc4b5c38453eae7,2016-02-28,2016-02-27 16:01:27.0,2016-02-28 08:01:27,2016-02-28,1456646487]
[56d2aa1bfd2460183a571762,2016-02-28,2016-02-27 16:04:43.0,2016-02-28 08:04:43,2016-02-28,1456646683]
[56d2aaa9eb63bbb63456d5b5,2016-02-28,2016-02-27 16:07:05.0,2016-02-28 08:07:05,2016-02-28,1456646825]
[56d2aab15a21fa5f4c4f42a7,2016-02-28,2016-02-27 16:07:13.0,2016-02-28 08:07:13,2016-02-28,1456646833]
[56d2aac8aeeee48b74531af0,2016-02-28,2016-02-27 16:07:36.0,2016-02-28 08:07:36,2016-02-28,1456646856]
[56d2ab1d87fd3f4f72567788,2016-02-28,2016-02-27 16:09:01.0,2016-02-28 08:09:01,2016-02-28,1456646941]
美国/太平洋的时间应该是2016-02-28 00:01:27
等,但有些人如何两次减去"8"小时
阅读一段时间后,以下是结论:
- Spark-Sql 不支持日期时间和时区
- 使用时间戳是唯一的解决方案
-
from_unixtime(at)
正确地解析纪元时间,只是将其打印为字符串会因时区而更改它。可以安全地假设from_unixtime
将正确转换它(尽管打印它可能会显示不同的结果) -
from_utc_timestamp
会将时间戳移位(而不仅仅是转换)到该时区,在这种情况下,它将减去自 (-08:00) 以来的时间 8 小时 - 打印 SQL 结果会弄乱时区参数 的时间
作为记录,这里我们使用 UDF 转换这样的长值。
出于我们的目的,我们只对时间戳的日期字符串表示感兴趣(以毫秒为单位,因为 UTC 中的纪元)
val udfToDateUTC = udf((epochMilliUTC: Long) => {
val dateFormatter = java.time.format.DateTimeFormatter.ofPattern("yyyy-MM-dd").withZone(java.time.ZoneId.of("UTC"))
dateFormatter.format(java.time.Instant.ofEpochMilli(epochMilliUTC))
})
这样,我们控制日期的解析和呈现。