在Spark表列名中保留特殊字符



有没有办法为spark 3.0表中的列保留特殊字符?

我需要做一些类似的事情

CREATE TABLE schema.table
AS
SELECT id=abc
FROM tbl1

我在Hadoop中读到,你会在列名周围打勾,但这在spark中不起作用。

如果在PySpark中有一种方法可以做到这一点,那么也可以

事实证明,拼花地板和delta格式在任何情况下都不接受特殊字符。您必须使用行格式分隔

spark.sql("""CREATE TABLE schema.test
ROW FORMAT DELIMITED
SELECT 1 AS `brand=one` """)

最新更新