我们可以使用Shark 0.9.1版本和Spark 1.1.0吗



我知道Shark已经被Spark SQL所包含,Spark SQL是Apache Spark中的一个新模块。但我的问题是,我们可以用现有的Shark和新的Spark版本吗?

根据发布说明,Shark 0.9.1仅支持Spark 0.9.1。

根据邮件列表帖子,Shark 1.0+没有正式版本。Shark依赖于Spark的非公共接口,这些接口可能在0.9.1到1.1.0之间发生了变化,因此将Shark移植到Spark 1.0+可能需要大量工作。

相关内容

  • 没有找到相关文章

最新更新