我已经在Linux机器上安装了带有Hive的Spark 1.5.2版本。配置单元元存储仓库目录的默认路径为:/user/Hive/dowarehouse。
- 这是本地路径还是HDFS的路径?我问这个问题,因为我无法在Linux中搜索这条路径
- 如果它是HDFS路径(很可能),那么我们可以在不安装带有/不带有Spark构建的Hadoop的情况下访问它吗
您可以在本地以及您的hive-site.xml put 中创建仓库
hive.metastore.warehouse.dirfile:///tmp
是的,/user/heave/dwarehouse是一个HDFS路径。您需要安装并运行Hadoop服务(至少是namenode、secondary namenode和datanode)以使HDFS可用。
键入jps并查看是否所有服务都在运行。如果正在运行检查metastore_db是否存在于路径/user/hive/dowarehouse 中