values = [(u'[23,4,77,890,455]',10),(u'[11,2,50,1,11]',20),(u'[10,5,1,22,04]',30)]
df = sqlContext.createDataFrame(values,['list','A'])
df.show()
+-----------------+---+
| list_1| A|
+-----------------+---+
|[23,4,77,890,455]| 10|
| [11,2,50,1,11]| 20|
| [10,5,1,22,04]| 30|
+-----------------+---+
我想将上述火花数据框架转换为一个帧,以使" List_1"列中的每个列表中的第一个元素应在一个列中,即第二列第4,2,5列中的第23,11,10列。我尝试了
df.select([df.list_1[i] for i in range(5)])
但是,由于我在每个列表中有大约4000个值,因此上述似乎很耗时。最终目标是在结果数据框中找到每列的中间。
我使用pyspark。
您可以查看posexplode
。我使用了您的小示例,并将数据框架转换为另一个数据框,并带有5列和每行中的数组的相应值。
from pyspark.sql.functions import *
df1 = spark.createDataFrame([([23,4,77,890,455],10),([11,2,50,1,11],20),
([10,5,1,22,04],30)], ["list1","A"])
df1.select(posexplode("list1"),"list1","A") #explodes the array and creates multiple rows for each element with the position in the columns "col" and "pos"
.groupBy("list1","A").pivot("pos") #group by your initial values and take the "pos" column as pivot to create 1 new column per element here
.agg(max("col")).show(truncate=False) #collect the values
输出:
+---------------------+---+---+---+---+---+---+
|list1 |A |0 |1 |2 |3 |4 |
+---------------------+---+---+---+---+---+---+
|[10, 5, 1, 22, 4] |30 |10 |5 |1 |22 |4 |
|[11, 2, 50, 1, 11] |20 |11 |2 |50 |1 |11 |
|[23, 4, 77, 890, 455]|10 |23 |4 |77 |890|455|
+---------------------+---+---+---+---+---+---+
当然之后,您可以继续计算单个数组值的均值或任何您想要的。
如果您的List1列包含字符串,而不是首先提取数组的直接数组。您可以使用regexp_extract
和split
进行此操作。它还适用于字符串中的浮点值。
df1 = spark.createDataFrame([(u'[23.1,4,77,890,455]',10),(u'[11,2,50,1.1,11]',20),(u'[10,5,1,22,04.1]',30)], ["list1","A"])
df1 = df1.withColumn("list2",split(regexp_extract("list1","(([d.]+,)+[d.]+)",1),","))
df1.select(posexplode("list2"),"list1","A").groupBy("list1","A").pivot("pos").agg(max("col")).show(truncate=False)