私はスパークするのが新しいです。 postgresからjava sparkにデータをロードしたい。このために私はSQLContextを作成しますが、次のエラーを取得しています:私は間違って取得していますSQLContextが作成されていません:NoClassDefFoundError:org/apache/spark/sql/catalyst/rules/RuleExecutor
を?これをどうすれば解決できますか?
私はスパークするのが新しいです。 postgresからjava sparkにデータをロードしたい。このために私はSQLContextを作成しますが、次のエラーを取得しています:私は間違って取得していますSQLContextが作成されていません:NoClassDefFoundError:org/apache/spark/sql/catalyst/rules/RuleExecutor
を?これをどうすれば解決できますか?
次の依存関係をmaven pom.xmlに追加します。
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-catalyst_2.10</artifactId>
<version>1.6.1</version>
</dependency>
この問題を解決するには、ビルド/クラスパスに 'spark-catalyst_2.10.jar'を追加してください。
が追加され、スレッド "main"の例外が発生するjava.lang.NoClassDefFoundError:org/apache/parquet/hadoop/ParquetOutputCommitterエラー – z22
このjar-parquet-hadoop-1.2.4.jarをビルド/クラスパスに追加します。サポートされているすべてのジャーが追加されていることを確認してください。 – Bhuvanwaitz
クラスパスにスパーク触媒ジャーが入っているかどうか確認できますか? – uday
は触媒ジャーを追加しましたが、現在スレッド "main"の例外が発生しています。java.lang.NoClassDefFoundError:org/apache/parquet/hadoop/ParquetOutputCommitterエラー – z22
parquet-hadoop jarをクラスパスに追加します。アプリケーションの依存関係をどのように管理していますか? – uday