如何在Spark中将unix时间戳转换为日期



我有一个数据帧,其中有一列是unix时间戳(例如14335655706000),我想将其转换为格式为"yyyy-MM-DD"的数据,我尝试过nscala时间,但它不起作用。

val time_col = sqlc.sql("select ts from mr").map(_(0).toString.toDateTime)
time_col.collect().foreach(println)

我犯了一个错误:java.lang.IollegalArgumentException:无效格式:"1435655706000"在"6000"处格式不正确

这里使用的是Scala DataFrame函数:from_unixtime和to_date

// NOTE: divide by 1000 required if milliseconds
// e.g. 1446846655609 -> 2015-11-06 21:50:55 -> 2015-11-06 
mr.select(to_date(from_unixtime($"ts" / 1000))) 

由于spark1.5,有一个内置的UDF可以实现这一点。

val df = sqlContext.sql("select from_unixtime(ts,'YYYY-MM-dd') as `ts` from mr")

请查看Spark 1.5.2 API文档了解更多信息。

import org.joda.time.{DateTime, DateTimeZone}
import org.joda.time.format.DateTimeFormat

您需要导入以下库。

val stri = new DateTime(timeInMillisec).toString("yyyy/MM/dd")

或者根据您的情况进行调整:

 val time_col = sqlContext.sql("select ts from mr")
                     .map(line => new DateTime(line(0).toInt).toString("yyyy/MM/dd"))

可能还有另一种方法:

  import com.github.nscala_time.time.Imports._
  
  val date = (new DateTime() + ((threshold.toDouble)/1000).toInt.seconds )
             .toString("yyyy/MM/dd")

希望这有帮助:)

在使用nscala_time 应用到DataTime之前,不需要转换为String

import com.github.nscala_time.time.Imports._

scala> 1435655706000L.toDateTime
res4: org.joda.time.DateTime = 2015-06-30T09:15:06.000Z

`

我已经通过在DataFrame上映射并将DateTime转换为String:,使用joda时间库解决了这个问题

import org.joda.time._
val time_col = sqlContext.sql("select ts from mr")
                         .map(line => new DateTime(line(0)).toString("yyyy-MM-dd"))

您可以在Java 中使用以下语法

input.select("timestamp)
            .withColumn("date", date_format(col("timestamp").$div(1000).cast(DataTypes.TimestampType), "yyyyMMdd").cast(DataTypes.IntegerType))

您可以做的是:

input.withColumn("time", concat(from_unixtime(input.col("COL_WITH_UNIX_TIME")/1000,
"yyyy-MM-dd'T'HH:mm:ss"), typedLit("."), substring(input.col("COL_WITH_UNIX_TIME"), 11, 3), 
typedLit("Z")))

其中时间是新列名,COL_WITH_UNIX_time是要转换的列的名称。这将以毫秒为单位提供数据,使您的数据更加准确,如:"yyyy-MM-dd'T'HH:mm:ss.SSS'Z'"

相关内容

  • 没有找到相关文章

最新更新