Hortonworksデータプラタフォームを使用してHadoopをインストールしました。 CentOS 7を実行している3台のマシンがあります。これらの3台のコンピュータのうちの1台が、amabari-serverとambari-clientインスタンスを実行しています。他の2つはamabari-clientだけを実行しています。CentOS 7のNamenodeが起動していない
すべてのインストールプロセスは、NameNode Startタスクが正常に完了してエラーが発生します。 NameNodeは、amabari-serverの同じマシン上で実行されています。
これは、上記のログが言うエラーログ
Traceback (most recent call last):
File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/namenode.py", line 401, in <module>
NameNode().execute()
File "/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py", line 219, in execute
method(env)
File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/namenode.py", line 102, in start
namenode(action="start", hdfs_binary=hdfs_binary, upgrade_type=upgrade_type, env=env)
File "/usr/lib/python2.6/site-packages/ambari_commons/os_family_impl.py", line 89, in thunk
return fn(*args, **kwargs)
File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/hdfs_namenode.py", line 146, in namenode
create_log_dir=True
File "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/utils.py", line 267, in service
Execute(daemon_cmd, not_if=process_id_exists_command, environment=hadoop_env_exports)
File "/usr/lib/python2.6/site-packages/resource_management/core/base.py", line 154, in __init__
self.env.run()
File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 158, in run
self.run_action(resource, action)
File "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", line 121, in run_action
provider_action()
File "/usr/lib/python2.6/site-packages/resource_management/core/providers/system.py", line 238, in action_run
tries=self.resource.tries, try_sleep=self.resource.try_sleep)
File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 70, in inner
result = function(command, **kwargs)
File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 92, in checked_call
tries=tries, try_sleep=try_sleep)
File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 140, in _call_wrapper
result = _call(command, **kwargs_copy)
File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 291, in _call
raise Fail(err_msg)
resource_management.core.exceptions.Fail: Execution of 'ambari-sudo.sh su hdfs -l -s /bin/bash -c 'ulimit -c unlimited ; /usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config /usr/hdp/current/hadoop-client/conf start namenode'' returned 1. starting namenode, logging to /var/log/hadoop/hdfs/hadoop-hdfs-namenode-hadoop.out
です:
resource_management.core.exceptions.Fail:「ambari-sudo.sh suコマンドの実行HDFS -l -s/bin/bash -c 'ulimit -c unlimited; /usr/hdp/current/hadoop-client/sbin/hadoop-daemon.sh --config/usr/hdp/current/hadoop-client/conf start namenode ''が返されました。1. namenodeの起動、/ var/log/Hadoopの/ HDFS/HadoopのHDFS--名前ノード-hadoop.out
しかし、私はHadoopのHDFS--名前ノード-hadoop.outファイルを開いたときに、これはコンテンツです:私は大きなセット
ulimit -a for user hdfs
core file size (blocks, -c) unlimited
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 30513
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 128000
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 10240
cpu time (seconds, -t) unlimited
max user processes (-u) 65536
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited
ソフトとハードの限界は、ユーザーhdfsのために、それは動作しませんでした。私はnamenodeを形成しましたが、それもうまくいきませんでした。だから、私はサーバーとクライアントを再インストールしようとしましたが、まだ動作していません。
ありがとうございました。
/var/log/hadoop/hdfs/hadoop-hdfs-namenode-hadoop.logにエラーがありますか? – cjackson
私はまったく同じ問題を見ています。あなたは手がかりを得ましたか? –