如何将每个值与 pyspark 中的每个其他值进行比较



我在 Spark 中有一个数据帧,如下所示

  a    b
( 21 , 23 )
( 23 , 21 )
( 22 , 21 )
( 21 , 22 )

我想要一个数据帧,它应该看起来像这样:-

( 21 , 22 )
( 21 , 23 )
( 22 , 21 )
( 22 , 23 )
( 23 , 21 )
( 23 , 22 )

因此,它应该考虑两列的所有可能组合。如何实现这一点?

我尝试了笛卡尔连接,但对于非常小的数据集来说,这需要太多时间。还有其他选择吗?

谢谢。

试试

zip(*pairs_rdd).flatten.deduplicate.foreach(n => (n,n-1)).cache()
很难

说为什么你的join在没有看到你的代码的情况下"花费了太多时间"。我发现以下方法对我来说相当快:

df = sqlContext.createDataFrame(
  [
    Row(a=21, b=22),
    Row(a=22, b=23),
  ]
)
# rename to avoid identical colume names in the result
df_copy = df.alias('df_copy')
df_copy = df_copy.withColumnRenamed('a', 'a_copy')
df_copy = df_copy.withColumnRenamed('b', 'b_copy')
df.join(df_copy, how='outer').select(df.a, df_copy.b_copy).collect()

相关内容

  • 没有找到相关文章

最新更新