如何在 Spark SQL 中执行"select top 1 x from table"语句



我面临的问题转换在spark-sql在pyspark下面的查询sql server查询

coalesce((Select top 1 f2.ChargeAmt from Fact_CMCharges f2
        where f2.BldgID = f.BldgID 
        and f2.LeaseID = f.LeaseID
        and f2.IncomeCat = f.IncomeCat
        and f2.Period < f.Period
        and f2.ActualProjected = 'Lease'
        order by f2.Period desc),0) as Charge

我没有找到替换pyspark sql中的top关键字。请帮助我我如何在py-spark sql

中转换此查询?

既然你说Spark-SQL,如果你有' DF',那么你可以使用这样的东西。

df.limit(1).show()

相关内容

最新更新