2017-10-18 2 views
1

私のスケーラコードはsparkで動いていて、MacのNeo4jに接続しています。私は私のWindowsマシン上でそれをテストしたかったが、それを実行するように見えることはできません、私はエラーを取得しておいてください。Neo4j Sparkコネクタエラー:import.org.neo4j.spark._オブジェクトneo4jがパッケージorgに見つかりません

Spark context Web UI available at http://192.168.43.4:4040 
Spark context available as 'sc' (master = local[*], app id = local-1508360735468). 
Spark session available as 'spark'. 
Loading neo4jspark.scala... 
<console>:23: error: object neo4j is not a member of package org 
     import org.neo4j.spark._ 
      ^

のその後のエラーを与える:

changeScoreList: java.util.List[Double] = [] 
<console>:87: error: not found: value neo 
         val initialDf2 = neo.cypher(noBbox).partitions(5).batch(10000).loadDataFrame 
             ^
<console>:120: error: not found: value neo 

ない私がやっているかわからを間違っている、私はこれのように実行しています:

neoを使用すると、コードがすべての依存関係を見つけても、エラーをスローします。他に何をしようとしていますか?なぜこれが私のWindowsのボックスで動作しないと私のMACを行いますか分かりません。スパークバージョン2.2と同じ、のNeo4jアップと、あまりにも、Javaの同じバージョン、スカラを実行している(いくつかのマイナーな改訂版の違いを保存)

答えて

1

これはfixいるため、知らissue(関連1 here付き)ですSpark 2.2.1リリースの一部です。

+0

ahh大丈夫です(これは前にWindowsで動作していました)ので、これらのjarファイルをクラスパスに追加する必要があります。 – Codejoy

+0

最新バージョンを入手して試しましたが、まだエラーがあります。私はこれらのjarファイルを手動で見つけて、私のウィンドウにあるclasspathに移動する必要がありますか? – Codejoy

+0

@ Codejoy:Spark 2.2.1はまだリリースされていません。 – chunjef

関連する問題