下面的SELECT语句:
select ( Cast (( Cast(T1.partition_ AS VARCHAR(21)) + '|'
+ T1.dataareaid_ + '|'
+ CONVERT(VARCHAR(8), T1.ledgertransdate, 112) ) AS VARCHAR(255)) ) AS FKDATEFINANCIAL
FROM TABLE;
当我尝试在pyspark中执行上面的sql语句时。sql使用SqlContext,我得到以下错误:AnalysisException:未定义函数:'CONVERT'。这个函数既不是注册的临时函数,也不是在数据库'default'中注册的永久函数。
换言之,"CONVERT"是SQL Server的一个函数,它在Spark SQL中的等价是什么?
convert函数是sqlserver中的一个方法,你可以直接使用cast,它会做同样的工作