2017-06-17 11 views
0

私はSpark-Shellをオープンしました。シェルでは、我々はすでに変数を持っている -spark-shellのインポートクラス "spark"で始まるパッケージ名

spark: org.apache.spark.sql.SparkSession 

私はのように、「スパーク」で始まるパッケージ名を持つサードパーティ製の瓶を持っている - 私は、スパークシェル上のパッケージの上にインポートしようとする

spark.myreads.one.KafkaProducerWrapper 

その後、例外が発生する -

scala> import spark.myreads.one.KafkaProducerWrapper 
<console>:38: error: value myreads is not a member of org.apache.spark.sql.SparkSession 
     import spark.myreads.one.KafkaProducerWrapper 

上記の競合を解決するために、どのようにこのようなパッケージをSpark-Shellにインポートできますか?私はこのような部品を始めとして_root_使用Spark-2.0.0JDK-1.8

+0

$ SPARK_HOME/binに/火花シェル--packages spark.myreads.one。 KafkaProducerWrapper – Wang

答えて

0

Scala -2.11を使用してい

import _root_.spark.myreads.one.KafkaProducerWrapper

関連する問題