英語が貧しい、申し訳ありませんが、本当に助けが必要です。 私はspark-2.0.0-bin-hadoop2.7
とhadoop2.7.3
を使用します。 s3からログを読み取り、結果をローカルhdfsに書き込みます。私はスパークドライバを使用してスタンドアロンモードを正常に実行できます。しかし、私は糸モードで同じドライバを実行します。それは私が行うことができますどのようにaws-java-sdk-1.7.4.jar and hadoop-aws-2.7.3.jar
糸に点火するjava.io.IOException:いいえFileSystem for scheme:s3n
を見つけることができませんする必要があり、それはだと思っ
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HADOOP_HOME/share/hadoop/tools/lib/*
run hadoop fs -ls s3n://xxx/xxx/xxx, can list files.
を追加
17/02/10 16:20:16 ERROR ApplicationMaster: User class threw exception: java.io.IOException: No FileSystem for scheme: s3n
hadoop-env.sh
をスローします。
は非常に多くのお返事ありがとうございました。しかし、それは問題を解決することはできません。 $ {base_dir} /spark-2.0.0-bin-hadoop2.7/のように私は私のドライバを嫌ってaws-java-sdk- [version] .jar /hadoop-aws-[version].jarを追加します。 bin/spark-submit \ --class com.csloter.xxx \ - master [master] \ --deploy-mode client \ --jars [path] aws-java-sdk- [version] .jar :[パス] hadoop-aws- [バージョン] .jar --name DRIVERNAME \ $ {job_dir} /xxx-statistics_2.11-1.0.jar – csloter
--jarsオプションはコロンで区切られていません。コンマで区切られていますので、試してみてください'--jars [path] aws-java-sdk- [version] .jar、[path] hadoop-aws- [version] .jar' – ImDarrenG
あなたはそうです。私のせい。それは-jars [パス] aws-java-sdk- [バージョン] .jar、[パス] hadoop-aws- [バージョン] .jar – csloter