我是否需要在本地驱动器上下载Hive,以通过Spark访问Hive数据



我有一个Mac,并且我有几个SPARK SQL查询,我需要从另一台计算机上使用Hive数据来运行。我知道我需要core-site.xml,hdfs-site.xml和hive-site.xml文件才能访问Hive Tables,但是我需要在计算机上安装Apache Hive,以便这样做吗?目前,我通过我在互联网上发现的其他民族示例中将这些文件在Spark/Conf中。我是否只需要通过这些直接从Spark到工作来输入Hive Server的用户名,密码和连接URL?谢谢!

您只需要Hive客户端,而不是Hiveserver。火花包括这些

您可以使用任何JDBC客户端(例如,我在Mac上在DBVizualizer上取得了成功(并使用Hive JDBC JAR,不一定是SparkSQL

类似的帖子 - 如何在SparkSQL中编程地连接到Hive Metastore?