SparkConfでエンコードを設定する方法はありますか?私はアラビア語のデータを処理するSparkでJavaアプリケーションを構築しています。 Spark MasterをLocal [*]に設定したdev環境で実行すると、データが正しく処理されます。ただし、JARを準備してSpark Clusterに送信すると、データにエンコーディングが必要なように見えます。Java Spark Data Encoding
--conf spark.driver.extraJavaOptions=-Dfile.encoding=UTF-8
スパークでの構成として提出したが、うまくいきませんでした:
は、私が使用していました。
OS:Windowsの10 のJava 1.8.0.131
スパーク2.1.0
ご回答いただきありがとうございます。私は環境の詳細で質問を更新しました。 –