我想得到一个降序,并使用 Spark 从 csv 文件中四舍五入zhvi
为整数。
但是,当我在代码末尾尝试sort(desc("Zhvi"))
时。它总是给我错误。
from pyspark.sql.functions import col, desc
stateByZhvi = home.select('State','Zhvi').groupBy((col("State"))).avg("Zhvi").show()
和我的部分结果:
+-----+------------------+
|State| avg(Zhvi)|
+-----+------------------+
| AZ|246687.01298701297|
| SC|143188.94736842104|
| LA|159991.74311926606|
| MN|236449.40239043825|
| NJ| 367156.5637065637|
| DC| 586109.5238095238|
| OR| 306646.3768115942|
| VA| 282764.4986449864|
有人可以帮忙吗?
// input dataframe
+-----+------------------+
|State| avg|
+-----+------------------+
| AZ|246687.01298701297|
| SC|143188.94736842104|
| LA|159991.74311926606|
+-----+------------------+
df.orderBy(desc("avg")).show()
//
+-----+------------------+
|State| avg|
+-----+------------------+
| AZ|246687.01298701297|
| LA|159991.74311926606|
| SC|143188.94736842104|
+-----+------------------+
可能还有另一个问题,似乎您正在使用"sort(desc("Zhvi"))",
但是,列名称在 avg 函数"|状态| 平均(Zhvi)|"
谢谢
使用 SQL 怎么样:
home.createOrReplaceTempView("home")
spark.sql("select State, round(avg(Zhvi)) as avg_Zhvi from home group by State order by 2 desc").show()
我解决了你遇到的同样问题,这是我的解决方案。使用 agg、avg、alias 和 order by(升序参数为 false):
from pyspark.sql.functions import *
stateByZhvi = home.groupBy((col("State"))).agg.avg(col("Zhvi")).alias("avg_Zhvi").orderBy("avg_Zhvi", ascending=False).select('State','avg_Zhvi')show()