我有一个像row_number over partition by column name order by column name rows between unbounded preceding and unbounded following
这样的查询。
查询在配置单元中工作,但在 Spark-SQL 和 Spark(在 Spark 1.6 和 2.0 中(中不起作用。
我想知道如何在 Spark 代码中实现此逻辑。
此查询是否有效,在具有row_number函数的帧之间具有行?
- 窗口函数调用的正确语法需要框架定义两边的括号。
row_number
需要ROWS BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
帧,在这种情况下它是默认的,因此可以省略。
组合的:
row_number() OVER (PARTITION BY foo ORDER BY bar)