2017-12-13 5 views
1

excelファイルをcsvに変換するツールはSpark 1.Xを使用していますか? https://github.com/ZuInnoTe/hadoopoffice/wiki/Read-Excel-document-using-Spark-1.xconvertファイルをspark 1.Xのcsvに変換

Exception in thread "main" java.lang.NoClassDefFoundError: org/zuinnote/hadoop/office/format/mapreduce/ExcelFileInputFormat 
     at org.zuinnote.spark.office.example.excel.SparkScalaExcelIn$.convertToCSV(SparkScalaExcelIn.scala:63) 
     at org.zuinnote.spark.office.example.excel.SparkScalaExcelIn$.main(SparkScalaExcelIn.scala:56) 
     at org.zuinnote.spark.office.example.excel.SparkScalaExcelIn.main(SparkScalaExcelIn.scala) 
     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) 
     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
     at java.lang.reflect.Method.invoke(Method.java:498) 
     at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:731) 
     at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:181) 
     at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:206) 
     at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:121) 
     at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) 
Caused by: java.lang.ClassNotFoundException: org.zuinnote.hadoop.office.format.mapreduce.ExcelFileInputFormat 
     at java.net.URLClassLoader.findClass(URLClassLoader.java:381) 
     at java.lang.ClassLoader.loadClass(ClassLoader.java:424) 
     at java.lang.ClassLoader.loadClass(ClassLoader.java:357) 
+0

あなたは 'https://mvnrepository.com/artifact/com.githubを依存関係を追加しました.zuinnote/hadoopoffice-fileformat/1.0.0'をジョブのクラスパスに追加しますか? –

答えて

0

このtutoを実行するときに は、Sparkはクラスパスにorg.zuinnote.hadoop.office.format.mapreduce.ExcelFileInputFormatファイル形式のクラスを見つけることができないこの問題を得ました。

依存以下サプライ火花提出する--jars PARAMETER-

<!-- https://mvnrepository.com/artifact/com.github.zuinnote/hadoopoffice-fileformat --> 
<dependency> 
    <groupId>com.github.zuinnote</groupId> 
    <artifactId>hadoopoffice-fileformat</artifactId> 
    <version>1.0.4</version> 
</dependency> 

コマンドを使用して:

spark-submit --jars hadoopoffice-fileformat-1.0.4.jar \ 
#rest of the command arguments 
+0

私はsbtを使用していますが、依存関係を追加しましたが、まだ同じ問題があります –

+0

ドライバとエグゼキュータのクラスパスにjarが入っていますか? –

+0

SPark UI-> Environmentタブ - > 'spark.driver.extraClassPath'およびspark.executor.extraClassPathプロパティのエントリを確認する –

関連する問題