Scala Spark 中的日期时间转换,24 小时格式



我按以下方式格式化了数据帧中的时间戳。

var df_v_5 = df_v_4..withColumn("endTimeFormat", 
from_unixtime(unix_timestamp('DateTime), "dd-MM-yyyy hh:mm:ss"))

我得到的输出为

DateTime,value1,value2,endTimeFormat
2017-01-01T12:00:00.000+05:30,11,-14,01-01-2017 12:00:00
2017-01-01T13:00:00.000+05:30,110,13,01-01-2017 01:00:00

预期输出 :

DateTime,value1,value2,endTimeFormat
2017-01-01T12:00:00.000+05:30,11,-14,01-01-2017 12:00:00
2017-01-01T13:00:00.000+05:30,110,13,01-01-2017 13:00:00

如何将此时间戳转换为 24 小时格式?

//Maybe try to make the hh to uppercase
val df = spark.sql("SELECT from_unixtime(unix_timestamp('01-01-2017 12:59:59', 'dd-MM-yyyy hh:mm:ss'), 'dd-MM-yyyy HH:mm:ss')")
df.collect().foreach(println(_))
// result
[01-01-2017 00:59:59]

相关内容

  • 没有找到相关文章