首先,希望我的问题格式正确。
我有这个数据帧:
df = sc.parallelize([
('1112', 1, 0, 1, '2018-05-01'),
('1111', 1, 1, 1, '2018-05-01'),
('1111', 1, 3, 2, '2018-05-04'),
('1111', 1, 1, 2, '2018-05-05'),
('1111', 1, 1, 2, '2018-05-06'),
]).toDF(["customer_id", "buy_count", "date_difference", "expected_answer", "date"]).cache()
df.show()
+-----------+---------+---------------+---------------+----------+
|customer_id|buy_count|date_difference|expected_answer| date|
+-----------+---------+---------------+---------------+----------+
| 1111| 1| 1| 1|2018-05-01|
| 1111| 1| 3| 2|2018-05-04|
| 1111| 1| 1| 2|2018-05-05|
| 1111| 1| 1| 2|2018-05-06|
| 1112| 1| 0| 1|2018-05-01|
+-----------+---------+---------------+---------------+----------+
我想创建"expected_answer"列:
如果客户超过 3 天没有购买 (date_difference>=3(,我想将他的buy_count增加 1。之后的每次购买都需要有新的buy_count,除非他再购买 3 天,在这种情况下buy_count会再次增加。
这是我的代码以及我走了多远。问题似乎是 Spark 实际上并没有插补价值,而是创建了一个新列。有没有办法克服这个问题?我也尝试了Hive,结果完全相同。
from pyspark.sql.window import Window
import pyspark.sql.functions as func
from pyspark.sql.functions import when
windowSpec = func.lag(df['buy_count']).
over(Window.partitionBy(df['customer_id']).
orderBy(df['date'].asc()))
df.withColumn('buy_count',
when(df['date_difference'] >=3, windowSpec +1).when(windowSpec.isNull(), 1)
.otherwise(windowSpec)).show()
+-----------+---------+---------------+---------------+----------+
|customer_id|buy_count|date_difference|expected_answer| date|
+-----------+---------+---------------+---------------+----------+
| 1112| 1| 0| 1|2018-05-01|
| 1111| 1| 1| 1|2018-05-01|
| 1111| 2| 3| 2|2018-05-04|
| 1111| 1| 1| 2|2018-05-05|
| 1111| 1| 1| 2|2018-05-06|
+-----------+---------+---------------+---------------+----------+
如何获得预期的结果?提前谢谢。
终于想通了。感谢大家指出类似的案例。
我的印象是分区上的 SUM(( 会对整个分区求和,而不仅仅是对当前行之前的所有内容求和。幸运的是,我能够用一个非常简单的SQL来解决我的问题:
SELECT SUM(CASE WHEN(date_difference>=3) THEN 1 ELSE 0 END) OVER (PARTITION BY customer_id ORDER BY date)
FROM df
sqlContext.sql(qry).show()