我可以像这样在scala中连接数据框架,它可以工作;
df1.join(df2, df1("id") === df2("id"), "left").select(df1("id"),df2("name"))
我想使用nvl在df2.name列上执行类似的函数nvl(df2.name,"test">
如何用spark scala处理这个问题?
thanks in advance
可以在spark.sql.functions中使用coalece和lit
df1.join(df2, df1("id") === df2("id"), "left").select(df1("id"),coalesce(df2("name"),lit("test")))