如何在 pyspark 中获得确定性随机排序



我想随机排序一个数据帧,但以一种确定性的方式。我认为这样做的方法是使用带有种子rand函数的orderBy。但是,我发现这在不同的机器上是不确定的。例如,请考虑以下代码:

from pyspark.sql import types as T, functions as F
df = spark.createDataFrame(range(10), T.IntegerType())
df = df.orderBy(F.rand(seed=123))
print(df.show())

当我在本地计算机上运行它时,它会打印

+-----+
|value|
+-----+
|    3|
|    4|
|    9|
|    7|
|    8|
|    0|
|    5|
|    6|
|    2|
|    1|
+-----+

但在 EC2 实例上,它会打印

+-----+
|value|
+-----+
|    9|
|    5|
|    6|
|    7|
|    0|
|    1|
|    4|
|    8|
|    3|
|    2|
+-----+

如何获得确定性的随机排序,即使在不同的计算机上运行时也是如此?

我的 pyspark 版本是 2.4.1

编辑:顺便说一下,我应该补充一点,只做df.select(F.rand(seed=123)).show()在两台机器上产生相同的输出,所以这特别是orderByrand组合的问题。

感谢您从编辑中获得的其他信息!事实证明,这是一个非常重要的线索。

问题

我认为这里的问题是您将伪随机生成的列附加到已经随机排序的数据集上,并且现有的随机性不是确定性的,因此附加另一个确定性的随机性来源无济于事。

您可以通过改写orderBy调用来验证这一点,如下所示:

df.withColumn('order', F.rand(seed=123)).orderBy(F.col('order').asc())

如果我是对的,您将在两台机器上看到相同的随机值,但它们将附加到不同的行:随机值附加到行的顺序是随机的!

溶液

如果这是真的,解决方案应该非常简单:在"真实"值上应用确定性的、非随机的排序,然后在上面应用随机(但仍然是确定性的(顺序。

df.orderBy(F.col('value').asc()).withColumn('order', F.rand(seed=123)).orderBy(F.col('order').asc())

应该在两台计算机上产生相似的输出。我的结果:

+-----+-------------------+
|value|              order|
+-----+-------------------+
|    4|0.13617504799810343|
|    5|0.13778573503201175|
|    6|0.15367835411103337|
|    9|0.43774287147238644|
|    0| 0.5029534413816527|
|    1| 0.5230701153994686|
|    7|  0.572063607751534|
|    8| 0.7689696831405166|
|    3|   0.82540915099773|
|    2| 0.8535692890157796|
+-----+-------------------+

最新更新