2016-07-06 18 views
0

私は仮想ボックスで動作するubuntuにhadoopをインストールしました。私が最初にhadoopをインストールしたとき、hdfsを起動して問題のないディレクトリを作成することができます。Hadoop疑似分散java.net.ConnectException:仮想ボックスで接続が拒否されました

しかし、hdfsでlsコマンドを実行しようとすると、「Connection refired」というエラーが発生しました。それから、Hadoop cluster setup - java.net.ConnectException: Connection refusedのsshd_configベースに "Port 9000"を追加しました。 "ls:ローカル例外で失敗しました:com.google.protobuf.InvalidProtocolBufferException:プロトコルメッセージタグのワイヤタイプが無効です;ホストの詳細:ローカルホストは" hadoop/127.0.1.1 ";宛先ホスト:" localhost ":9000;"

-------------- etc/hadoop/core-site.xml ---- ---------

<configuration> 
    <property> 
     <name>fs.defaultFS</name> 
     <value>hdfs://localhost:9000</value> 
    </property> 
</configuration> 

-------------- etc/hadoop/hdfs-site.xml ----------- ------

<configuration> 
    <property> 
     <name>dfs.replication</name> 
     <value>1</value> 
    </property> 
</configuration> 
+0

この質問は役に立ちます:http://stackoverflow.com/questions/31849433/hadoop-protocol-message-tag-had-invalid-wire-type –

+0

これは別の問題です。 – zhumingvictor

答えて

0

私はそれを解決した。 jpsを実行して、namenodeを開始できませんでした。それで何が間違っているのか調べようとすると、役に立つ情報がほとんどない "hadoop-xxx-namenode-hadoop.out"を見ています。だから私は "hadoop-xxx-namenode-hadoop.log"を見て、 "org.apache.hadoop.hdfs.server.common.InconsistentFSStateException:Directory/tmp/hadoop-xxx/dfs/nameがエラーであることを明確に示しています。

さらに調査したところでは、デフォルトでHadoopはnamenodeとdatanodeファイルをシステムの一時ディレクトリに入れました。そして、私が再起動すると、ディレクトリが削除されました。だから私は "hdfs-site.xml"を変更し、 "dfs.namenode.name.dir"と "dfs.namenode.data.dir"のプロパティを追加する必要があります。その後、私はhdfsを起動しようとすると "Address already in use"が表示されます。私が使用していたポートは9000で、リブート後には "tcp 0 0 *:9000"とバインドされていましたので、代わりにcore-site.xmlの "fs.defaultFS"を9001に変更しました。今はすべてが始まります。

これは役に立ちます。

関連する問題