我在pyspark中有一个数据框,我想在列中计算列中的nulls和这些相应列的不同值,即非nulls
这是我拥有的数据框架
trans_date transaction_id transaction_id1
2016-01-01 1 1
2016-01-01 2 null
2016-01-01 null 3
我想在一个月和一年中进行汇总,并产生类似的东西
| month | year | id_count_in_x_not_in_y | id_count_in_y_not_in_x | ids_in_x | ids_in_y |
df.groupBy(F.month(F.col("trans_date")).alias("MONTH"),
F.year(F.col("trans_date")).alias("YEAR"))
.agg(*(F.sum(F.col(c).isNull().cast("int")).alias(c) for c in columns))
.show()
这是我在代码方面拥有的,但似乎并没有给我好的答案。另外,应该如何在相同的代码中进行非挂钩计数。任何帮助,将不胜感激。谢谢!
首先,按年度和一个月按小组。我们可以计算每组中每组的零和非效组,并在转换为INT之后将它们进行总和;那部分很简单。
对于出现在一个列中而不是另一列中的元素计数中,我们可以使用 collect_set
,将唯一元素汇总到单个数组中,并与 array_except
:
from pyspark.sql import functions as F
from pyspark.sql.types import IntegerType
result = (df
.groupBy(F.year('date').alias('year'), F.month('date').alias('month'))
.agg(F.sum(F.isnull('x').cast(IntegerType())).alias('x_null'),
F.sum(F.isnull('y').cast(IntegerType())).alias('y_null'),
F.sum((~F.isnull('x')).cast(IntegerType())).alias('x_not_null'),
F.sum((~F.isnull('y')).cast(IntegerType())).alias('y_not_null'),
F.collect_set('x').alias('x_unique'),
F.collect_set('y').alias('y_unique'))
.withColumn('x_not_in_y_count', F.size(F.array_except('x_unique', 'y_unique')))
.withColumn('y_not_in_x_count', F.size(F.array_except('y_unique', 'x_unique')))
.drop('x_unique', 'y_unique')
.orderBy('year', 'month')
)
给定以下测试数据:
+----------+----+----+
| date| x| y|
+----------+----+----+
|1991-01-01|null| 2|
|1991-01-02| 1|null|
|1991-01-03| 2| 3|
|1991-02-01|null| 1|
|1991-02-02|null| 2|
+----------+----+----+
这是输出:
+----+-----+------+------+----------+----------+----------------+----------------+
|year|month|x_null|y_null|x_not_null|y_not_null|x_not_in_y_count|y_not_in_x_count|
+----+-----+------+------+----------+----------+----------------+----------------+
|1991| 1| 1| 1| 2| 2| 1| 1|
|1991| 2| 2| 0| 0| 2| 0| 2|
+----+-----+------+------+----------+----------+----------------+----------------+