2016-11-03 13 views
0

自分のsparkクラスタに関連付けられている自分のhdfsを起動および停止するサービスを作成しました。
サービス:Systemd Hdfsサービス[hadoop] - 起動

[Unit] 
Description=Hdfs service 
[Service] 
Type=simple 
WorkingDirectory=/home/hduser 
ExecStart=/opt/hadoop-2.6.4/sbin/start-service-hdfs.sh 
ExecStop=/opt/hadoop-2.6.4/sbin/stop-service-hdfs.sh 
[Install] 
WantedBy=multi-user.target 

問題は、私はサービスを開始するとき、それは始まり、直後に開始されて停止しています! :) 私は問題がサービスのタイプだと思う、私は本当にどのタイプを選択するかわからない...

ありがとう。
最高のお礼

+0

正しい作成し、実際のP​​IDということでしょうか? journalctlとhdfsの両方のログ(私はどこに置いたか分かりません) – Misko

+0

インストール中にnamenodeをフォーマットしましたか? –

答えて

1

あなたの設定では、いくつかの問題があります。そのため、動作しません。

HADOOP_HOME/home/hadoop/envs/dwh/hadoop/

[Unit] 
Description=Hadoop DFS namenode and datanode 
After=syslog.target network.target remote-fs.target nss-lookup.target network-online.target 
Requires=network-online.target 

[Service] 
User=hadoop 
Group=hadoop 
Type=forking 
ExecStart=/home/hadoop/envs/dwh/hadoop/sbin/start-dfs.sh 
ExecStop=/home/hadoop/envs/dwh/hadoop/sbin/stop-dfs.sh 
WorkingDirectory=/home/hadoop/envs/dwh 
Environment=JAVA_HOME=/usr/lib/jvm/java-8-oracle 
Environment=HADOOP_HOME=/home/hadoop/envs/dwh/hadoop 
TimeoutStartSec=2min 
Restart=on-failure 
PIDFile=/tmp/hadoop-hadoop-namenode.pid 

[Install] 
WantedBy=multi-user.target 

チェックリストであるhadoop 2.7.3, hive 2.1.1, ubuntu 16.04ユーザーhadoop

私が実行している:

  • ユーザーやユーザーグループが設定されている
  • サービスタイプはfork
  • です
  • pidファイルが設定されており、これはstart-dfs.sh
  • 環境変数があなたのログ(s)は何と言ってい
関連する問題