以下工作在Spark SQL中:
val df = sqlc.sql(
"select coalesce(optPrefix.optSysIp,'--') as ip, count(1) as cnt
from llines group by coalesce(optPrefix.optSysIp,'--')"
).collect
res39: Array[org.apache.spark.sql.Row] = Array([192.168.1.7,57],[--,43]))
我们如何直接从数据帧中应用合并?
scala> df.groupBy("coalesce(optPrefix.optSysIp,'--')").count.collect
org.apache.spark.sql.AnalysisException: Cannot resolve column name
"coalesce(optPrefix.optSysIp,'--')
我研究了数据帧上的方法。我看不出有什么办法来进行这次联合行动。想法?
您可以使用coalesce
函数:
import org.apache.spark.sql.functions.{coalesce, lit}
case class Foobar(foo: Option[Int], bar: Option[Int])
val df = sc.parallelize(Seq(
Foobar(Some(1), None), Foobar(None, Some(2)),
Foobar(Some(3), Some(4)), Foobar(None, None))).toDF
df.select(coalesce($"foo", $"bar", lit("--"))).show
// +--------------------+
// |coalesce(foo,bar,--)|
// +--------------------+
// | 1|
// | 2|
// | 3|
// | --|
// +--------------------+