无法在 Unix Shell 终端中通过 Spark 查看在 Hive 中创建的表


通过

shell和Spark(Eclipse上的Scala(在hive中创建的表是否都相同?

如果是,我在使用它们时会得到不同的表和数据库列表。
如何解决?

Spark需要配置来检测Hive。

在类路径中添加hive-site.xml

如果没有这些配置,Spark 会将配置单元表本地存储在项目根目录的 metastore_db 文件夹中。

最新更新