我正在尝试获取特定列的值SAD costs
AS
spark.select(col("col1"), col("col2"), col("costs") )
.groupBy("col1")
.agg( sum( col("costs") ) );
输出应具有附加$
符号的列成本的数据。
您需要使用concat
和lit
spark.select(col("col1"), col("col2"), col("costs") )
.groupBy("col1")
.agg( sum( col("costs") ).as("costs") )
.withColumn("costs" , concat(lit("$") , col("costs")) ) ;