有没有一种方法可以通过每行的自定义连接来连接两个spark数据帧



我有两个数据帧df和df2,如下

+------+---+----+
|  name|age|city|
+------+---+----+
|  John| 25|  LA|
|  Jane| 26|  LA|
|Joseph| 28|  SA|
+------+---+----+
+---+----+------+
|age|city|salary|
+---+----+------+
| 25|  LA| 40000|
| 26|    | 50000|
|   |  SF| 60000|
+---+----+------+

我想要我的结果数据帧如下

+------+---+----+------+
|  name|age|city|salary|
+------+---+----+------+
|  John| 25|  LA| 40000|
|  Jane| 26|  LA| 50000|
|Joseph| 28|  SF| 60000|
+------+---+----+------+

基本上,这里我需要使用age、city作为联接列来联接,但如果df2中的任何一列为空,那么我只需要与另一个非空列联接我正在寻找的解决方案应该是适用的,即使大约有5列要联接,只有非null列应该参与每行的联接

当您加入这些数据帧时,可以给出更多条件,然后选择,需要groupBy。

df1.join(df2, 
($"age" === $"age2" || $"age2".isNull) &&
($"city" === $"city2" || $"city2".isNull), "left")
.show

结果将是:

+------+---+----+----+-----+-------+
|  name|age|city|age2|city2|salary2|
+------+---+----+----+-----+-------+
|  John| 25|  LA|  25|   LA|  40000|
|  Jane| 26|  LA|  26| null|  50000|
|Joseph| 28|  SF|null|   SF|  60000|
+------+---+----+----+-----+-------+

但是,当您有更多的列或第二个数据帧有更多的空值时,结果将更加复杂。

df1.join(df2,df1.col("age")===df2.col("age") || df1.col("city")===df2.col("city")).select(df1.col("name"),df1.col("age"),df1.col("city"),df2.col("salary")).show
+----+---+----+------+
|name|age|city|salary|
+----+---+----+------+
|john| 25|  LA| 40000|
|Jane| 26|  LA| 40000|
|Jane| 26|  LA| 50000|
+----+---+----+------+```

最新更新