2017-02-06 4 views
0

私はスパークシェルでジュニットの作業をするのに苦労しています。ジュニットのスパークシェルでの使用

scala> import org.junit.Assert._ 
<console>:23: error: object junit is not a member of package org 
     import org.junit.Assert._ 

これは固定持つの任意の方法:

は、私は次のエラーメッセージをgeetのJUnitからアサートをインポートしようとすると?どのようにしてorg.junitをscala shellからダウンロードできますか?しようとしたとき

C:\spark>spark-shell --packages junit:junit:4.12 
Ivy Default Cache set to: C:\xxx\.ivy2\cache 
The jars for the packages stored in: C:\xxxx\.ivy2\jars 
:: loading settings :: url = jar:file:/C:/spark/jars/ivy-2.4.0.jar!/org/apache/i 
vy/core/settings/ivysettings.xml 
junit#junit added as a dependency 
:: resolving dependencies :: org.apache.spark#spark-submit-parent;1.0 
     confs: [default] 
     found junit#junit;4.12 in central 
     found org.hamcrest#hamcrest-core;1.3 in central 
:: resolution report :: resolve 365ms :: artifacts dl 7ms 
     :: modules in use: 
     junit#junit;4.12 from central in [default] 
     org.hamcrest#hamcrest-core;1.3 from central in [default] 
     --------------------------------------------------------------------- 
     |     |   modules   || artifacts | 
     |  conf  | number| search|dwnlded|evicted|| number|dwnlded| 
     --------------------------------------------------------------------- 
     |  default  | 2 | 0 | 0 | 0 || 2 | 0 | 
     --------------------------------------------------------------------- 
:: retrieving :: org.apache.spark#spark-submit-parent 
     confs: [default] 
     0 artifacts copied, 2 already retrieved (0kB/20ms) 
Setting default log level to "WARN". 
Spark context Web UI available at http://xxxxx 
Spark context available as 'sc' (master = local[*], app id = local-xxx 
). 
Spark session available as 'spark'. 
Welcome to 
     ____    __ 
    /__/__ ___ _____/ /__ 
    _\ \/ _ \/ _ `/ __/ '_/ 
    /___/ .__/\_,_/_/ /_/\_\ version 2.0.0 
     /_/ 

は、しかし、まだ同じ問題に直面して:

EDIT:次の出力で4.12:JUnitの: zsxwingからrecomendationに従った後、私が使用しているスパーク・シェルは、JUnitのを--packages to import org.junit.Assert._

答えて

0

JUnitはテスト依存であり、Sparkシェルのクラスパスには含まれていません。あなたは、このようなあなたの応答のための

bin/spark-shell --packages junit:junit:4.12 
+0

多くのおかげで、として任意の依存関係を追加--packagesパラメータを使用することができ、しかし、あなたが私を説明した方法でpacakageをインストールした後、私は同じエラー –

+0

を取得するそれは私のラップトップOS X上で動作しますWindowsマシンをチェックする必要はありません。Windowsでこの機能が壊れている可能性があります。ところで、Sparkシェルでjunitを使うのが初めてのことです。 Sparkシェルで単体テストを行う必要がある理由を詳しく説明できますか?それはそのために設計されていません。 – zsxwing

関連する問題