正如这里正确指出的那样:在 Hive 上执行 Spark SQL 查询
Spark SQL在通过HiveContext运行时将使SQL查询使用Spark引擎。
Spark SQL 设置如何hive.execution.engine=spark
告诉 Hive 这样做?
请注意,这会自动工作,我们不必在 hive-site 中指定它.xml在 spark 的 conf 目录中。
这里有2个独立的项目
- Hive on Spark - 将 Spark 集成为附加引擎的 Hive 项目。
- Spark SQL - 使用 Hive 代码的 Spark 模块。
HiveContext
属于第 2 个,hive.execution.engine
是第 1 个的属性。