错误:当 () 在 PySpark 中缺少 1 个必需的位置参数'value'时类型错误



在使用 Pyspark 在数据砖中运行数据帧时遇到上述错误。我不知道如何解决这个问题以及我哪里出错了。代码如下:

df_inner_select = df_promodata_daypart.select(df_promodata_daypart.sub_master_id,df_promodata_daypart.sub_campaign_id,df_promodata_daypart.resolved_network,df_promodata_daypart.hh_id,df_promodata_daypart.type,df_df_promodata_daypart.localpromoadviewstarttime_min).alias("viewerbytype").groupby(df_promodata_daypart.sub_master_id,df_promodata_daypart.sub_campaign_id,df_promodata_daypart.resolved_network,df_promodata_daypart.hh_id,df_promodata_daypart.localpromoadviewstarttime_min).agg(F.sum(F.when(df_promodata_daypart.type=="NonTargeted",1).otherwise(0).alias("NonTargeted_count")),F.sum(F.when(df_promodata_daypart.type=="Targeted").alias("Targeted_count"))) 

同样在这里,我需要获取数据帧中提到的类型列的计数。任何人都可以帮助我尽可能快速地解决这个问题吗?

提前非常感谢。

看看你行的最末尾:

F.when(df_promodata_daypart.type=="Targeted")

when函数需要一个条件和一个值,但你只传递了一个条件。

最新更新