2016-03-29 2 views
2

Hortonworksデータプラタフォームを使用してHadoopをインストールしました。 CentOS 7を実行している3台のマシンがあります。これらの3台のコンピュータのうちの1台が、amabari-serverとambari-clientインスタンスを実行しています。他の2つはamabari-clientだけを実行しています。CentOS 7のNamenodeが起動していない

すべてのインストールプロセスは、NameNode Startタスクが正常に完了してエラーが発生します。 NameNodeは、amabari-serverの同じマシン上で実行されています。

これは、上記のログが言うエラーログ

Traceback (most recent call last): 
    File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/namenode.py", line 401, in <module> 
    NameNode().execute() 
    File "/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py", line 219, in execute 
    method(env) 
    File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/namenode.py", line 102, in start 
    namenode(action="start", hdfs_binary=hdfs_binary, upgrade_type=upgrade_type, env=env) 
    File "/usr/lib/python2.6/site-packages/ambari_commons/os_family_impl.py", line 89, in thunk 
    return fn(*args, **kwargs) 
    File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/hdfs_namenode.py", line 146, in namenode 
    create_log_dir=True 
    File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/utils.py", line 267, in service 
    Execute(daemon_cmd, not_if=process_id_exists_command, environment=hadoop_env_exports) 
    File "/usr/lib/python2.6/site-packages/resource_management/core/base.py", line 154, in __init__ 
    self.env.run() 
    File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 158, in run 
    self.run_action(resource, action) 
    File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 121, in run_action 
    provider_action() 
    File "/usr/lib/python2.6/site-packages/resource_management/core/providers/system.py", line 238, in action_run 
    tries=self.resource.tries, try_sleep=self.resource.try_sleep) 
    File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 70, in inner 
    result = function(command, **kwargs) 
    File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 92, in checked_call 
    tries=tries, try_sleep=try_sleep) 
    File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 140, in _call_wrapper 
    result = _call(command, **kwargs_copy) 
    File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 291, in _call 
    raise Fail(err_msg) 
resource_management.core.exceptions.Fail: Execution of 'ambari-sudo.sh su hdfs -l -s /bin/bash -c 'ulimit -c unlimited ; /usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config /usr/hdp/current/hadoop-client/conf start namenode'' returned 1. starting namenode, logging to /var/log/hadoop/hdfs/hadoop-hdfs-namenode-hadoop.out 

です:

resource_management.core.exceptions.Fail:「ambari-sudo.sh suコマンドの実行HDFS -l -s/bin/bash -c 'ulimit -c unlimited; /usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config/usr/hdp/current/hadoop-client/conf start namenode ''が返されました。1. namenodeの起動、/ var/log/Hadoopの/ HDFS/HadoopのHDFS--名前ノード-hadoop.out

しかし、私はHadoopのHDFS--名前ノード-hadoop.outファイルを開いたときに、これはコンテンツです:私は大きなセット

ulimit -a for user hdfs 
core file size   (blocks, -c) unlimited 
data seg size   (kbytes, -d) unlimited 
scheduling priority    (-e) 0 
file size    (blocks, -f) unlimited 
pending signals     (-i) 30513 
max locked memory  (kbytes, -l) 64 
max memory size   (kbytes, -m) unlimited 
open files      (-n) 128000 
pipe size   (512 bytes, -p) 8 
POSIX message queues  (bytes, -q) 819200 
real-time priority    (-r) 0 
stack size    (kbytes, -s) 10240 
cpu time    (seconds, -t) unlimited 
max user processes    (-u) 65536 
virtual memory   (kbytes, -v) unlimited 
file locks      (-x) unlimited 

ソフトとハードの限界は、ユーザーhdfsのために、それは動作しませんでした。私はnamenodeを形成しましたが、それもうまくいきませんでした。だから、私はサーバーとクライアントを再インストールしようとしましたが、まだ動作していません。

ありがとうございました。

+0

/var/log/hadoop/hdfs/hadoop-hdfs-namenode-hadoop.logにエラーがありますか? – cjackson

+0

私はまったく同じ問題を見ています。あなたは手がかりを得ましたか? –

答えて

0

いくつかの髪を引き出した後、私はまだ私のために回避策を得ました。これはDNSと関係があるようです。 hostsファイルにホスト名を追加すると、現在のホストのDNSに依存するのではなく、問題が解決されます。例えば

172.16.1.34 hostname.domain hostname 

これは、DNSがホストに対してうまく機能するため、これは奇妙です。私はプロキシの背後から取り組んでいます。

関連する問題