Spark - 类型错误:"str"和"int"实例之间不支持"<="



我正在尝试执行以下代码:

df2.groupBy(df2.item_type,df2.product_id)
.count()
.where(f.col('row' =<3))
.withColumn('row',f.row_number().over(
Window.partitionBy("item_type")
.orderBy(f.col('count')))).show() 

但我遇到了以下错误:TypeError:'<='在"str"one_answers"int"的实例之间不支持。我想知道我做错了什么。。。

where子句中的语法错误

...
.where(f.col('row') <= 3)
...

我无法添加评论。将row替换为需要筛选的column name的名称。

f.col('row')应替换为f.col('column_name_you_want_to_filter')。例如:f.col('product_id')

我认为"row"是一个字符串<=int

相关内容

  • 没有找到相关文章

最新更新