この処理は何ですか?実行例??
これらのコマンドはちょうどあなたが&が正しくセットアップを構成しインストールされていることを確認するためのHadoop jarファイルで使用可能な事前定義された例を実行して、真剣にというよりも、何も処理しませんでした。
としては、ディレクトリに"/"実行中に次のコマンドであったと仮定する:
1)$ mkdir input
:ルートディレクトリの下に入力というディレクトリを作成/
2) $ cp etc/hadoop/*.xml
入力:hadoop confファイル(* .xml)を/etc/hadoopから/ inputにコピーする
3)$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output 'dfs[a-z.]+'
:
hadoopライブラリに同梱のサンプルクラスを実行しています。この例では、パラメータがDFSディレクトリ/入力の下にあるすべてのHadoopのXMLのconfファイルからで始まり、(暗黙的に実行の一部としてのHadoopによって作成されたディレクトリ/出力に結果を書き込み抽出ん)。
4)$ cat output/*
:このコマンドは、端末のディレクトリ/出力の下にあるすべてのファイルの内容を表示します。
何が問題ですか?
ここで直面している問題は「入力パス」です。道は漠然としており、ハープで解決されていない。 standaloneモードとしてhadoopを実行していることを確認してください。そして最後に、次のように(入力と出力の両方に)絶対パスを与えることによって、例を実行します。エラーに基づいて
$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep /input /output 'dfs[a-z.]+'
、私はあなたが疑似スタンドアロンセクションのためのXMLファイルを信頼できない使用と思います。 –