我是pyspark的新手,所以如果有人可以帮助解决这个问题,我将不胜感激。
假设我在 pyspark 中有一个数据帧,如下所示:
+----+----+----+----+----+
|col1|col2|col3|col4|col5|
+----+----+----+----+----+
| A|2001| 2| 5| 6|
| A|2001| 3| 6| 10|
| A|2001| 3| 6| 10|
| A|2002| 4| 5| 2|
| B|2001| 2| 9| 4|
| B|2001| 2| 4| 3|
| B|2001| 2| 3| 4|
| B|2001| 3| 95| 7|
+----+----+----+----+----+
如果 col1
、col2
和 col3
中的相应值相同,我想获得col4
的平均值,然后删除前 3 列中具有重复值的行。
例如,前两列中的col1
、col2
、col3
的值是相同的,因此,我们要消除其中之一并将 col4
的值更新为 col4
和 col5
的平均值。结果应该是:
+----+----+----+----+----+
|col1|col2|col3|col4|col5|
+----+----+----+----+----+
| A|2001| 2| 4.5| 7|
| A|2001| 3| 6| 10|
| A|2002| 4| 5| 2|
| B|2001| 2|5.33|3.67|
| B|2001| 3| 95| 7|
+----+----+----+----+----+
类似的问题也被问过,但在熊猫数据帧中。这个问题在 pyspark 数据帧中提出
第 1 步:创建所述DataFrame
-
values = [('A',2001,2,5,6),('A',2001,2,4,8),('A',2001,3,6,10),('A',2002,4,5,2),
('B',2001,2,9,4),('B',2001,2,4,3),('B',2001,2,3,4),('B',2001,3,95,7)]
df = sqlContext.createDataFrame(values,['col1','col2','col3','col4','col5'])
df.show()
+----+----+----+----+----+
|col1|col2|col3|col4|col5|
+----+----+----+----+----+
| A|2001| 2| 5| 6|
| A|2001| 2| 4| 8|
| A|2001| 3| 6| 10|
| A|2002| 4| 5| 2|
| B|2001| 2| 9| 4|
| B|2001| 2| 4| 3|
| B|2001| 2| 3| 4|
| B|2001| 3| 95| 7|
+----+----+----+----+----+
第 2 步:聚合列col4
和col5
。
df = df.groupby(['col1','col2','col3']).agg(avg('col4').alias('col4'),avg('col5').alias('col5'))
df.show()
+----+----+----+-----------------+------------------+
|col1|col2|col3| col4| col5|
+----+----+----+-----------------+------------------+
| A|2001| 3| 6.0| 10.0|
| A|2002| 4| 5.0| 2.0|
| B|2001| 2|5.333333333333333|3.6666666666666665|
| A|2001| 2| 4.5| 7.0|
| B|2001| 3| 95.0| 7.0|
+----+----+----+-----------------+------------------+