最近Sparkを使用していて、Spark DataFrameを保存しようとすると問題が発生し始めました。Spark DataFrameをCSVとして保存するとInvalidClassExceptionが発生します
私は正常に動作overthing .save
機能を使用する場合:
df.write.save("SparkTest_output")
しかし、私は.csv
または.json
(またはその他の拡張タイプ)を使用しようとします。例:
df.write.csv("SparkTest_output")
私はInvalidClassException
を得る:
java.io.InvalidClassException: org.apache.commons.lang3.time.FastDateFormat; local class incompatible: stream classdesc serialVersionUID = 1, local class serialVersionUID = 2
at java.io.ObjectStreamClass.initNonProxy(ObjectStreamClass.java:621)
at java.io.ObjectInputStream.readNonProxyDesc(ObjectInputStream.java:1623)
at java.io.ObjectInputStream.readClassDesc(ObjectInputStream.java:1518)...etc
周り読んだ後、私はこの例外がバージョンのエラーで発生する可能性があることを学んだが、私は、私は「とき、こうである可能性が方法がわかりませんSpark 2.0.2.1で1つのファイルのみを実行しています。他に誰かがこの問題にぶつかったのですか?起動おかげ
はHere are the DataFrame write member functions from the docs
は、その特定のケースで – ralston
良い点(必要に応じて外部のパッケージなし)で構築されています。 –