如何在 pySpark 中有条件地替换值,并将替换的值用于下一个条件



首先,希望我的问题格式正确。
我有这个数据帧:

df = sc.parallelize([
('1112', 1, 0, 1, '2018-05-01'),
('1111', 1, 1, 1, '2018-05-01'),
('1111', 1, 3, 2, '2018-05-04'),
('1111', 1, 1, 2, '2018-05-05'),
('1111', 1, 1, 2, '2018-05-06'),
]).toDF(["customer_id", "buy_count", "date_difference", "expected_answer", "date"]).cache()
df.show()
+-----------+---------+---------------+---------------+----------+
|customer_id|buy_count|date_difference|expected_answer|      date|
+-----------+---------+---------------+---------------+----------+
|       1111|        1|              1|              1|2018-05-01|
|       1111|        1|              3|              2|2018-05-04|
|       1111|        1|              1|              2|2018-05-05|
|       1111|        1|              1|              2|2018-05-06|
|       1112|        1|              0|              1|2018-05-01|
+-----------+---------+---------------+---------------+----------+

我想创建"expected_answer"列:

如果客户超过 3 天没有购买 (date_difference>=3(,我想将他的buy_count增加 1。之后的每次购买都需要有新的buy_count,除非他再购买 3 天,在这种情况下buy_count会再次增加。

这是我的代码以及我走了多远。问题似乎是 Spark 实际上并没有插补价值,而是创建了一个新列。有没有办法克服这个问题?我也尝试了Hive,结果完全相同。

from pyspark.sql.window import Window
import pyspark.sql.functions as func
from pyspark.sql.functions import when
windowSpec = func.lag(df['buy_count']).
over(Window.partitionBy(df['customer_id']).
orderBy(df['date'].asc()))
df.withColumn('buy_count', 
when(df['date_difference'] >=3, windowSpec +1).when(windowSpec.isNull(), 1)
.otherwise(windowSpec)).show()
+-----------+---------+---------------+---------------+----------+
|customer_id|buy_count|date_difference|expected_answer|      date|
+-----------+---------+---------------+---------------+----------+
|       1112|        1|              0|              1|2018-05-01|
|       1111|        1|              1|              1|2018-05-01|
|       1111|        2|              3|              2|2018-05-04|
|       1111|        1|              1|              2|2018-05-05|
|       1111|        1|              1|              2|2018-05-06|
+-----------+---------+---------------+---------------+----------+

如何获得预期的结果?提前谢谢。

终于想通了。感谢大家指出类似的案例。

我的印象是分区上的 SUM(( 会对整个分区求和,而不仅仅是对当前行之前的所有内容求和。幸运的是,我能够用一个非常简单的SQL来解决我的问题:

SELECT SUM(CASE WHEN(date_difference>=3) THEN 1 ELSE 0 END) OVER (PARTITION BY customer_id ORDER BY date) 
FROM df
sqlContext.sql(qry).show()

最新更新