Neo4j Spark 连接器错误:import.org.neo4j.spark._包组织中找不到对象 neo4j



我的scala代码在火花中运行,连接到Mac上的Neo4j。 我想在我的 Windows 机器上测试它,但似乎无法让它运行,我不断收到错误:

Spark context Web UI available at http://192.168.43.4:4040
Spark context available as 'sc' (master = local[*], app id = local-1508360735468).
Spark session available as 'spark'.
Loading neo4jspark.scala...
<console>:23: error: object neo4j is not a member of package org
       import org.neo4j.spark._
              ^

这给出了以下后续错误:

changeScoreList: java.util.List[Double] = []
<console>:87: error: not found: value neo
                         val initialDf2 = neo.cypher(noBbox).partitions(5).batch(10000).loadDataFrame
                                          ^
<console>:120: error: not found: value neo

不知道我做错了什么,我像这样执行它:

spark-shell --conf spark.neo4j.bolt.password=TestNeo4j --packages neo4j-contrib:neo4j-spark-connector:2.0.0-M2,graphframes:graphframes:0.2.0-spark2.0-s_2.11 -i neo4jspark.scala

说它找到了所有的依赖项,但代码在使用 neo 时抛出了错误。 不确定还能尝试什么? 不知道为什么这在我的窗口框上不起作用,而我的Mac不起作用。 Spark 版本 2.2 相同,neo4j 启动并运行相同的版本,scala 也是如此,甚至 java(除了一些小版本差异)

这是一个已知问题(此处有一个相关问题),其修复是 Spark 2.2.1 版本的一部分。

最新更新