2016-05-15 10 views
0

単一ノードのクラスタの例に従っています(here)。 ステップまでは5 の下で実行すべてが正常に動作しますが、その後、私は、次のエラー出力を得る:Hadoop 2.7.2単一ノードクラスタの例が失敗する

Asafs-MBP:hadoop-2.7.2 asafchelouche$ bin/hdfs dfs -put etc/hadoop input 
16/05/15 17:04:13 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 
put: `input': No such file or directory 

は、私はそれを研究してきたし、いずれかを持っていないようだ、WARN気にしません実際の悪影響。

私はすでにthis SO質問を相談したが、無駄にしました。 実行のステップ1では、ファイルシステムをフォーマットするので、何入力フォルダがありません:命令が間違っているようです。また、inputではなく/inputと記述する必要があります。私はこの問題について正しいのでしょうか?私は(bin/hdfs dfs -mkdir /inputでフォルダを作成した後)/inputを使用して行うと は、私は例外(それはここに置くには余りにも長いです、hereを参照)、次の巨大なスタックトレースを取得します。

これはなぜですか、これをどのように解決できますか?

答えて

0

を開始していないことのようですので、しかし、あなたの長いスタックトレースは明らかに、あなたは0 datanodes稼働を持っている状態は、犯人を発見 - ステップ#4で、私はbin/hdfs dfs -mkdir /user/<username>を実行する必要があります。私は私が好む任意のユーザー名を使用できると思ったが、OSで現在実行中のユーザーのユーザー名を入力すると、すべてが正しく機能するようになることが判明した。なぜこの問題が起こるのか分かりません...

0
hdfs dfs -put etc/hadoop input 

このコマンドは、/user/<username>/input HDFSディレクトリにローカルのファイルシステムのetc/hadoopファイルまたはディレクトリを置くしようとします。そのユーザー名は通常、コマンドを実行するユーザーの名前です。それを理解するためにwhoamiを使用してください。

あなたがそのユーザディレクトリとそれに続く入力ディレクトリしなかった場合は、そのエラーが表示されます。

エラーがHDFS

+0

は 'sbin/start-dfs.sh' HDFSを起動するアクションを実行していませんか? – asafc

+0

それは正しいです。 mapreduceが動作するようにYARNを開始する必要もあります。エラーメッセージに「実行中のデータノードがありません」というメッセージが繰り返し表示される –

関連する問題