在 Spark 中,无界前置和无界后置之间的 .. 行row_number不兼容



我有一个像row_number over partition by column name order by column name rows between unbounded preceding and unbounded following这样的查询。

查询在配置单元中工作,但在 Spark-SQL 和 Spark(在 Spark 1.6 和 2.0 中(中不起作用。

我想知道如何在 Spark 代码中实现此逻辑。
此查询是否有效,在具有row_number函数的帧之间具有行?

  • 窗口函数调用的正确语法需要框架定义两边的括号。
  • row_number需要ROWS BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW帧,在这种情况下它是默认的,因此可以省略。

组合的:

row_number() OVER (PARTITION BY foo ORDER BY bar)

相关内容

  • 没有找到相关文章

最新更新