0
私はSpark-Shellをオープンしました。シェルでは、我々はすでに変数を持っている -spark-shellのインポートクラス "spark"で始まるパッケージ名
spark: org.apache.spark.sql.SparkSession
私はのように、「スパーク」で始まるパッケージ名を持つサードパーティ製の瓶を持っている - 私は、スパークシェル上のパッケージの上にインポートしようとする
spark.myreads.one.KafkaProducerWrapper
その後、例外が発生する -
scala> import spark.myreads.one.KafkaProducerWrapper
<console>:38: error: value myreads is not a member of org.apache.spark.sql.SparkSession
import spark.myreads.one.KafkaProducerWrapper
上記の競合を解決するために、どのようにこのようなパッケージをSpark-Shellにインポートできますか?私はこのような部品を始めとして_root_使用Spark-2.0.0
、JDK-1.8
と
$ SPARK_HOME/binに/火花シェル--packages spark.myreads.one。 KafkaProducerWrapper – Wang