2017-04-23 10 views
0

ジャーナルノードを実行しようとすると失敗します。折りたたみエラー:Hadoop - メインクラスorg.apache.hadoop.hdfs.qjournal.server.JournalNodeを見つけることができませんでした。

./hadoop-daemon.sh start journalnode 

Error: Could not find or load main class org.apache.hadoop.hdfs.qjournal.server.JournalNode 

何ができるのですか?ここでここ

は私コア-site.xmlのある

<?xml version="1.0" encoding="UTF-8"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 

<configuration> 
    <property> 
     <name>fs.defaultFS</name> 
     <value>hdfs://hdfscluster</value> 
    </property> 
    <property> 
     <name>io.native.lib.available</name> 
     <value>True</value> 
    </property> 
    <property> 
     <name>io.file.buffer.size</name> 
     <value>65536</value> 
    </property> 
    <property> 
     <name>fs.trash.interval</name> 
     <value>60</value> 
    </property> 
</configuration> 

HDFS-site.xmlの

<?xml version="1.0" encoding="UTF-8"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 

<configuration> 
    <property> 
     <name>dfs.namenode.name.dir</name> 
     <value>file:///srv/node/d1/hdfs/nn,file:///srv/node/d2/hdfs/nn,file:///srv/node/d3/hdfs/nn</value> 
     <final>true</final> 
    </property> 

    <property> 
     <name>dfs.datanode.data.dir</name> 
     <value>file:///srv/node/d1/hdfs/dn,file:///srv/node/d2/hdfs/dn,file:///srv/node/d3/hdfs/dn</value> 
     <final>true</final> 
    </property> 

    <property> 
     <name>dfs.namenode.checkpoint.dir</name> 
     <value>file:///srv/node/d1/hdfs/snn,file:///srv/node/d2/hdfs/snn,file:///srv/node/d3/hdfs/snn</value> 
     <final>true</final> 
    </property> 

    <property> 
     <name>dfs.nameservices</name> 
     <value>hdfscluster</value> 
    </property> 

    <property> 
     <name>dfs.ha.namenodes.hdfscluster</name> 
     <value>nn1,nn2</value> 
    </property> 

    <property> 
     <name>dfs.namenode.rpc-address.hdfscluster.nn1</name> 
     <value>192.168.57.101:8020</value> 
    </property> 

    <property> 
     <name>dfs.namenode.http-address.hdfscluster.nn1</name> 
     <value>192.168.57.101:50070</value> 
    </property> 
    <property> 
     <name>dfs.namenode.rpc-address.hdfscluster.nn2</name> 
     <value>192.168.57.102:8020</value> 
    </property> 

    <property> 
     <name>dfs.namenode.http-address.hdfscluster.nn2</name> 
     <value>192.168.57.102:50070</value> 
    </property> 

    <property> 
     <name>dfs.journalnode.edits.dir</name> 
     <value>/srv/node/d1/hdfs/journal</value> 
     <final>true</final> 
    </property> 

    <property> 
     <name>dfs.namenode.shared.edits.dir</name> 
     <value>qjournal://192.168.57.101:8485;192.168.57.102:8485;192.168.57.103:8485/hdfscluster</value> 
    </property> 

    <property> 
     <name>dfs.client.failover.proxy.provider.hdfscluster</name> 
     <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> 
    </property> 

    <property> 
     <name>dfs.ha.automatic-failover.enabled</name> 
     <value>true</value> 
    </property> 

    <property> 
     <name>ha.zookeeper.quorum</name> 
     <value>192.168.57.101:2181,192.168.57.102:2181,192.168.57.103:2181</value> 
    </property> 

    <property> 
     <name>dfs.ha.fencing.methods</name> 
     <value>sshfence</value> 
    </property> 

    <property> 
     <name>dfs.ha.fencing.ssh.private-key-files</name> 
     <value>/home/hdfs/.ssh/id_dsa</value> 
    </property> 

    <property> 
     <name>dfs.hosts</name> 
     <value>/etc/hadoop/conf/dfs.hosts</value> 
    </property> 

    <property> 
     <name>dfs.hosts.exclude</name> 
     <value>/etc/hadoop/conf/dfs.hosts.exclude</value> 
    </property> 

    <property> 
     <name>dfs.replication</name> 
     <value>3</value> 
    </property> 
    <property> 
     <name>dfs.permission</name> 
     <value>False</value> 
    </property> 
    <property> 
     <name>dfs.durable.sync</name> 
     <value>True</value> 
    </property> 
    <property> 
     <name>dfs.datanode.synconclose</name> 
     <value>True</value> 
    </property> 
</configuration> 

ノードのIPそれはjournalnodeを実行する必要が192.168.57.1​​03
です

私はHadoop 2.8.0を使用しています。構成上問題があるのですか、何かを見逃しましたか?

+0

'$ HADOOP_CLASSPATH'は正しく設定されていますか? – franklinsijo

答えて

0

なぜ/usr/lib/hadoop/share/hadoop/ディレクトリが見逃されたのかわかりません。私は最初からハープを再インストールし、今は動作します。

関連する問題