spark中数据帧的where()方法的IN条件后出现意外的列值



任务:我想要child_id列的值[Which is generated using withColumn() method and monoliticallyIncreasingId() method]对应于family_idid列。

让我解释一下完成任务的步骤:

步骤1:1。向数据帧添加2列。1具有唯一id并命名为child_id,另一个具有值0并命名为parent_id。

步骤2:需要数据帧中的所有family_id。

步骤3:需要child_id和id的数据帧,其中id==family_id。[问题在这里。]

def processFoHierarchical(param_df: DataFrame) {
    var dff = param_df.withColumn("child_id", monotonicallyIncreasingId() + 1)
    println("Something is not gud...")
    dff = dff.withColumn("parent_id", lit(0.toLong))
    dff.select("id","family_id","child_id").show() // Original dataframe.
    var family_ids = ""
    param_df.select("family_id").distinct().coalesce(1).collect().map(x => family_ids = family_ids + "'" + x.getAs[String]("family_id") + "',")
    println(family_ids)
    var x: DataFrame = null
    if (family_ids.length() > 0) {
      family_ids = family_ids.substring(0, family_ids.length() - 1) 
      val y = dff.where(" id IN (" + family_ids + ")").select("id","family_id","child_id") 
      y.show() // here i am getting unexpected values.
    }

这是我的代码的输出。我正在尝试按照数据帧中的获取child_id值。但我不明白。注意:SparkScala一起使用。

+--------------------+--------------------+----------+
|                  id|           family_id|  child_id|
+--------------------+--------------------+----------+
|fe60c680-eb59-11e...|fe60c680-eb59-11e...|         4|
|8d9680a0-ec14-11e...|8d9680a0-ec14-11e...|         9|
|ff81457a-e9cf-11e...|ff81457a-e9cf-11e...|         5|
|4261cca0-f0e9-11e...|4261cca0-f0e9-11e...|        10|
|98c7dc00-f0e5-11e...|98c7dc00-f0e5-11e...|         8|
|dca16200-e462-11e...|dca16200-e462-11e...|8589934595|
|78be8950-ecca-11e...|ff81457a-e9cf-11e...|         1|
|4cc19690-e819-11e...|ff81457a-e9cf-11e...|         3|
|dca16200-e462-11e...|ff81457a-e9cf-11e...|8589934596|
|72dd0250-eff4-11e...|78be8950-ecca-11e...|         2|
|84ed0df0-e81a-11e...|78be8950-ecca-11e...|         6|
|78be8951-ecca-11e...|78be8950-ecca-11e...|         7|
|d1515310-e9ad-11e...|78be8951-ecca-11e...|8589934593|
|d1515310-e9ad-11e...|72dd0250-eff4-11e...|8589934594|
+--------------------+--------------------+----------+
'72dd0250-eff4-11e5-9ce9-5e5517507c66','dca16200-e462-11e5-90ec-c1cf090b354c','78be8951-ecca-11e5-a5f5-c1cf090b354c','4261cca0-f0e9-11e5-bbba-c1cf090b354c','98c7dc00-f0e5-11e5-bc76-c1cf090b354c','fe60c680-eb59-11e5-9582-c1cf090b354c','ff81457a-e9cf-11e5-9ce9-5e5517507c66','8d9680a0-ec14-11e5-a94f-c1cf090b354c','78be8950-ecca-11e5-a5f5-c1cf090b354c',
+--------------------+--------------------+-----------+
|                  id|           family_id|   child_id|
+--------------------+--------------------+-----------+
|fe60c680-eb59-11e...|fe60c680-eb59-11e...|          1|
|ff81457a-e9cf-11e...|ff81457a-e9cf-11e...|          2|
|98c7dc00-f0e5-11e...|98c7dc00-f0e5-11e...|          3|
|8d9680a0-ec14-11e...|8d9680a0-ec14-11e...|          4|
|4261cca0-f0e9-11e...|4261cca0-f0e9-11e...|          5|
|dca16200-e462-11e...|dca16200-e462-11e...|          6|
|78be8950-ecca-11e...|ff81457a-e9cf-11e...| 8589934593|
|dca16200-e462-11e...|ff81457a-e9cf-11e...| 8589934594|
|72dd0250-eff4-11e...|78be8950-ecca-11e...|17179869185|
|78be8951-ecca-11e...|78be8950-ecca-11e...|17179869186|
+--------------------+--------------------+-----------+

我知道它不会产生连续的值,这些值依赖于分区。意外值意味着(请参阅第二个数据帧)这些child_id属于family_id=id的前一个数据帧,并与我使用IN的多个id相匹配。此处的意外值意味着您的child_id列没有来自上述数据帧的值,而是使用monicallyIncredsingIds()创建新的child_ids列。

请参阅第二个数据帧中的最后2个值不属于上述数据帧。那么它是从哪里来的呢。我不会在数据帧上再次应用monoliticallyIncresingIds()。那么,为什么它看起来像是具有类似monoliticallyIncresingIds()的值的列(child_id)被再次应用。

然而,问题不在于sparkDataFrame。当我们在DataFrame中使用单关键IncredsingId()时,它将在DataFrame.show()上为每次创建新的id

如果我们需要生成一次id,并且需要在代码中的其他位置引用相同的id,那么我们可能需要DataFrame.cache().

在您的情况下,您需要在Step1之后缓存DataFrame,这样它就不会每次在show()上创建重复的child_id

相关内容

  • 没有找到相关文章

最新更新