任务:我想要child_id
列的值[Which is generated using withColumn() method and monoliticallyIncreasingId() method]
对应于family_id
和id
列。
让我解释一下完成任务的步骤:
步骤1:1。向数据帧添加2列。1具有唯一id并命名为child_id,另一个具有值0并命名为parent_id。
步骤2:需要数据帧中的所有family_id。
步骤3:需要child_id和id的数据帧,其中id==family_id。[问题在这里。]
def processFoHierarchical(param_df: DataFrame) {
var dff = param_df.withColumn("child_id", monotonicallyIncreasingId() + 1)
println("Something is not gud...")
dff = dff.withColumn("parent_id", lit(0.toLong))
dff.select("id","family_id","child_id").show() // Original dataframe.
var family_ids = ""
param_df.select("family_id").distinct().coalesce(1).collect().map(x => family_ids = family_ids + "'" + x.getAs[String]("family_id") + "',")
println(family_ids)
var x: DataFrame = null
if (family_ids.length() > 0) {
family_ids = family_ids.substring(0, family_ids.length() - 1)
val y = dff.where(" id IN (" + family_ids + ")").select("id","family_id","child_id")
y.show() // here i am getting unexpected values.
}
这是我的代码的输出。我正在尝试按照数据帧中的获取child_id值。但我不明白。注意:将Spark
与Scala
一起使用。
+--------------------+--------------------+----------+
| id| family_id| child_id|
+--------------------+--------------------+----------+
|fe60c680-eb59-11e...|fe60c680-eb59-11e...| 4|
|8d9680a0-ec14-11e...|8d9680a0-ec14-11e...| 9|
|ff81457a-e9cf-11e...|ff81457a-e9cf-11e...| 5|
|4261cca0-f0e9-11e...|4261cca0-f0e9-11e...| 10|
|98c7dc00-f0e5-11e...|98c7dc00-f0e5-11e...| 8|
|dca16200-e462-11e...|dca16200-e462-11e...|8589934595|
|78be8950-ecca-11e...|ff81457a-e9cf-11e...| 1|
|4cc19690-e819-11e...|ff81457a-e9cf-11e...| 3|
|dca16200-e462-11e...|ff81457a-e9cf-11e...|8589934596|
|72dd0250-eff4-11e...|78be8950-ecca-11e...| 2|
|84ed0df0-e81a-11e...|78be8950-ecca-11e...| 6|
|78be8951-ecca-11e...|78be8950-ecca-11e...| 7|
|d1515310-e9ad-11e...|78be8951-ecca-11e...|8589934593|
|d1515310-e9ad-11e...|72dd0250-eff4-11e...|8589934594|
+--------------------+--------------------+----------+
'72dd0250-eff4-11e5-9ce9-5e5517507c66','dca16200-e462-11e5-90ec-c1cf090b354c','78be8951-ecca-11e5-a5f5-c1cf090b354c','4261cca0-f0e9-11e5-bbba-c1cf090b354c','98c7dc00-f0e5-11e5-bc76-c1cf090b354c','fe60c680-eb59-11e5-9582-c1cf090b354c','ff81457a-e9cf-11e5-9ce9-5e5517507c66','8d9680a0-ec14-11e5-a94f-c1cf090b354c','78be8950-ecca-11e5-a5f5-c1cf090b354c',
+--------------------+--------------------+-----------+
| id| family_id| child_id|
+--------------------+--------------------+-----------+
|fe60c680-eb59-11e...|fe60c680-eb59-11e...| 1|
|ff81457a-e9cf-11e...|ff81457a-e9cf-11e...| 2|
|98c7dc00-f0e5-11e...|98c7dc00-f0e5-11e...| 3|
|8d9680a0-ec14-11e...|8d9680a0-ec14-11e...| 4|
|4261cca0-f0e9-11e...|4261cca0-f0e9-11e...| 5|
|dca16200-e462-11e...|dca16200-e462-11e...| 6|
|78be8950-ecca-11e...|ff81457a-e9cf-11e...| 8589934593|
|dca16200-e462-11e...|ff81457a-e9cf-11e...| 8589934594|
|72dd0250-eff4-11e...|78be8950-ecca-11e...|17179869185|
|78be8951-ecca-11e...|78be8950-ecca-11e...|17179869186|
+--------------------+--------------------+-----------+
我知道它不会产生连续的值,这些值依赖于分区。意外值意味着(请参阅第二个数据帧)这些child_id属于family_id=id的前一个数据帧,并与我使用IN的多个id相匹配。此处的意外值意味着您的child_id列没有来自上述数据帧的值,而是使用monicallyIncredsingIds()创建新的child_ids列。
请参阅第二个数据帧中的最后2个值不属于上述数据帧。那么它是从哪里来的呢。我不会在数据帧上再次应用monoliticallyIncresingIds()
。那么,为什么它看起来像是具有类似monoliticallyIncresingIds()
的值的列(child_id)被再次应用。
然而,问题不在于sparkDataFrame。当我们在DataFrame中使用单关键IncredsingId()时,它将在DataFrame.show()上为每次创建新的id。
如果我们需要生成一次id,并且需要在代码中的其他位置引用相同的id,那么我们可能需要DataFrame.cache().
在您的情况下,您需要在Step1之后缓存DataFrame,这样它就不会每次在show()上创建重复的child_id。