我们已经尝试用括号[column name]
,单个&双引号和反引号都不行
Spark SQL是否支持列的名称包含空格?
反引号似乎可以正常工作:
scala> val df = sc.parallelize(Seq(("a", 1))).toDF("foo bar", "x")
df: org.apache.spark.sql.DataFrame = [foo bar: string, x: int]
scala> df.registerTempTable("df")
scala> sqlContext.sql("""SELECT `foo bar` FROM df""").show
foo bar
a
与DataFrame
API相同:
scala> df.select($"foo bar").show
foo bar
a
所以它看起来是被支持的,尽管我怀疑它是否被推荐。
不像在T-SQL [column name]
中使用括号,而是使用反引号来包装`column name`
的列名。这是运行SQL时的情况。您还可以在spark SQL中使用反引号来包装列名,但使用三引号作为zero323的回答。