是否有sql (SMSS)中的CONVERT函数替换为Pyspark.sql中的类似函数.换句话说,有没有相似的函数?&



下面的SELECT语句:

select ( Cast (( Cast(T1.partition_ AS VARCHAR(21)) + '|' 
+ T1.dataareaid_ + '|' 
+ CONVERT(VARCHAR(8), T1.ledgertransdate, 112) ) AS VARCHAR(255)) )     AS FKDATEFINANCIAL
FROM TABLE;

当我尝试在pyspark中执行上面的sql语句时。sql使用SqlContext,我得到以下错误:AnalysisException:未定义函数:'CONVERT'。这个函数既不是注册的临时函数,也不是在数据库'default'中注册的永久函数。

换言之,"CONVERT"是SQL Server的一个函数,它在Spark SQL中的等价是什么?

convert函数是sqlserver中的一个方法,你可以直接使用cast,它会做同样的工作

最新更新