scala_spark _dataframe_hivecontext



我有一个蜂巢表。它包含一些一列作为"查询",其中有 4 条记录。我将使用以下方法阅读蜂巢:

val query_hive=sqlContext.sql(s"select * from hive_query limit 1")

我需要在另一个配置单元中使用此查询进行计算。

我试过这种方法:

val ouput=sqlContext.sql(s"$query_hive")

但是我收到一个错误。任何人都可以提出相同的解决方案吗?

你可以

这样做。您没有正确传递查询,只需在下面查看:

scala> val query = "select * from src limit 1"
query: String = select * from src limit 1
scala> sql(s"""$query""").show
+---+-----+
|key|value|
+---+-----+
|  1|    a|
+---+-----+

谢谢。

相关内容

  • 没有找到相关文章

最新更新