我在 Spark 中有一个数据帧,如下所示
a b
( 21 , 23 )
( 23 , 21 )
( 22 , 21 )
( 21 , 22 )
我想要一个数据帧,它应该看起来像这样:-
( 21 , 22 )
( 21 , 23 )
( 22 , 21 )
( 22 , 23 )
( 23 , 21 )
( 23 , 22 )
因此,它应该考虑两列的所有可能组合。如何实现这一点?
我尝试了笛卡尔连接,但对于非常小的数据集来说,这需要太多时间。还有其他选择吗?
谢谢。
试试
zip(*pairs_rdd).flatten.deduplicate.foreach(n => (n,n-1)).cache()
很难
说为什么你的join
在没有看到你的代码的情况下"花费了太多时间"。我发现以下方法对我来说相当快:
df = sqlContext.createDataFrame(
[
Row(a=21, b=22),
Row(a=22, b=23),
]
)
# rename to avoid identical colume names in the result
df_copy = df.alias('df_copy')
df_copy = df_copy.withColumnRenamed('a', 'a_copy')
df_copy = df_copy.withColumnRenamed('b', 'b_copy')
df.join(df_copy, how='outer').select(df.a, df_copy.b_copy).collect()