从DataFrame中应用SQL函数



以下工作在Spark SQL中:

val df = sqlc.sql(
  "select coalesce(optPrefix.optSysIp,'--') as ip, count(1) as cnt
  from llines group by coalesce(optPrefix.optSysIp,'--')"
).collect
 res39: Array[org.apache.spark.sql.Row] = Array([192.168.1.7,57],[--,43]))

我们如何直接从数据帧中应用合并?

scala> df.groupBy("coalesce(optPrefix.optSysIp,'--')").count.collect
org.apache.spark.sql.AnalysisException: Cannot resolve column name 
 "coalesce(optPrefix.optSysIp,'--')

我研究了数据帧上的方法。我看不出有什么办法来进行这次联合行动。想法?

您可以使用coalesce函数:

import org.apache.spark.sql.functions.{coalesce, lit}
case class Foobar(foo: Option[Int], bar: Option[Int])
val df = sc.parallelize(Seq(
  Foobar(Some(1), None), Foobar(None, Some(2)),
  Foobar(Some(3), Some(4)), Foobar(None, None))).toDF
df.select(coalesce($"foo", $"bar", lit("--"))).show
// +--------------------+
// |coalesce(foo,bar,--)|
// +--------------------+
// |                   1|
// |                   2|
// |                   3|
// |                  --|
// +--------------------+

相关内容

  • 没有找到相关文章

最新更新