0
を使用してコンソールからデバッグログを削除し、私が使用して基本的なスパークアプリを起動します。Javaを使用したスパーク1.6.2
SparkConf conf = new SparkConf().setAppName("myApp").setMaster("local");
JavaSparkContext javaSparkContext = new JavaSparkContext(conf);
javaSparkContext.setLogLevel("INFO");
SQLContext sqlContext = new SQLContext(javaSparkContext);
私はsetLogLevel
を追加して、システムを少し少ないverbosyを持ってしようとするが、それはしませんそれを取る。私はまだ多くのデバッグ情報を持っています。
理想的には、私はエラーを除くすべてのorg.apache.spark.*
を遮断したいと思います...
更新#1:
ここでは私のpom.xmlです:
<dependencies>
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
<version>5.1.6</version>
</dependency>
<dependency>
<groupId>org.hibernate</groupId>
<artifactId>hibernate-core</artifactId>
<version>5.2.0.Final</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.6.2</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.10</artifactId>
<version>1.6.2</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>com.databricks</groupId>
<artifactId>spark-csv_2.10</artifactId>
<version>1.4.0</version>
</dependency>
</dependencies>
ありがとう@Rockie、私はそれを見ましたが、spark/confがどこにあるのかわかりません...私はMavenを通して私のSparkを統合しました。したがって、すべてがかなり不透明です...あなたはspark/confこの環境では? – jgp
Sparkがmavenによってロードされていることを意味しますか?私はpom.xmlファイルをチェックし、それがどのように読み込まれ、それに応じて変更を参照してください –
はい、Mavenすべての世話を...私はポーム – jgp