加入Spark SQL(Java)中的两个数据集



我有2 Dataset s,每个列有4列。

我的数据集:

'left':
a | b | c | d 
1 | 2 | 3 | 4
'right':
a | b | c | e 
1 | 2 | 3 | 5

我想实现的目标:

a | b | c | d | e 
1 | 2 | 3 | 4 | 5

我的代码:

left.join(right,left.col(a).equalTo(right.col(a))
                        .and(left.col(b).equalTo(right.col(b)))
                        .and(left.col(c).equalTo(right.col(c)))
                        )),"left");

我想将right列'E'添加到left,但是我获得的回报是:

a | b | c | d | a | b | c | e |

我只得到标题的串联。
从逻辑角度来看,我的查询是正确的,我显然未能问Spark如何执行连接。
任何提示?

您可以使用以下内容进行加入。您只需要在Corresspond

时指定键列表
val df1 = Seq(
  (1, 2, 3, 4)
).toDF("a", "b", "c", "d")
val df2 = Seq(
  (1, 2, 3, 4)
).toDF("a", "b", "c", "e")
val df3 = df1.join(df2, Seq("a", "b", "c"), "left")

相关内容

  • 没有找到相关文章

最新更新