有没有办法为spark 3.0表中的列保留特殊字符?
我需要做一些类似的事情
CREATE TABLE schema.table
AS
SELECT id=abc
FROM tbl1
我在Hadoop中读到,你会在列名周围打勾,但这在spark中不起作用。
如果在PySpark中有一种方法可以做到这一点,那么也可以
事实证明,拼花地板和delta格式在任何情况下都不接受特殊字符。您必须使用行格式分隔
spark.sql("""CREATE TABLE schema.test
ROW FORMAT DELIMITED
SELECT 1 AS `brand=one` """)