2017-02-17 8 views
0

vmwareに基づいてhadoopクラスタを構築し、sbin/start-dfs.shコマンドを使用するとsshに関する問題が発生します。今ホスト名を解決しないことができませんでした。:ホスト名Hadoopセットアップの問題:「ssh:ホスト名を今解決できませんでした:ホスト名に関連付けられているアドレスがありません」

私は、ホスト名とIPアドレスを確認するには vi /etc/hostsコマンドを使用している

、およびvi /etc/profileコマンドに関連付けられたアドレスを:それは

sshは、述べています。私は欠陥がないことを保証する。

+0

これはシングルノードまたはマルチノードクラスタですか? – daemon12

+0

これはマルチノードクラスタです –

答えて

0

いくつかの提案

  1. HDFS-site.xml内のホスト名が正しく設定されているか確認してください。単一のホスト設定で実行していて、namenodeホストをlocalhostとして設定する場合、/ etc/hostsにlocalhostが127.0.0.1にマップされていることを確認する必要があります。複数のノードを設定する場合は、構成内の各ホストのFQDNを使用し、各FQDNが/ etc/hostsの正しいIPアドレスにマップされていることを確認してください。
  2. セットアップパスワードなしSSH。注意start-dfs.shでは、このコマンドをクラスタノードの残りの部分に実行するホストからのパスワードなしのSSH設定が必要です。これをssh hostx dateで確認し、パスワードを要求しません。
  3. エラーメッセージのホスト名を確認します(完全なログを貼り付けなかった可能性もあります)。問題のあるホスト名については、SSHコマンドを手動で実行して解決できることを確認してください。そうでない場合は、/ etc/hostsを確認してください。共通の/ etc/hostsの設定が

127.0.0.1のローカルホストlocalhost.localdomainを

:: 1 localhostののlocalhost.localdomainを

172.16.151.224 host1.test.com host1の

のように見えます

172.16.152.238 host2.test.com host2の

172.16.153.108 host3.test.com HOST3

関連する問題

 関連する問題