2011-07-20 5 views
2

私はubuntuでVMをセットアップしました。これは、単一ノードとしてhadoopを実行します。後で私はそれにapache pigをインストールしました。 apache pigはローカルモードでうまく動作しますが、常にpromです。ERROR 2999: Unexpected internal error. Failed to create DataStorage単一ノードのハープ・サーバを持つcant run pig

私は何か非常に明白ではありません。誰かが私を助けてもらえますか?

詳細: 1. MapReduceジョブをPythonで実行できるので、hadoopがうまく動作していると仮定します。 2.私は期待通りにブタ-xローカルを実行します。 3.私はちょうどそれが誤り

 
Error before Pig is launched 
---------------------------- 
ERROR 2999: Unexpected internal error. Failed to create DataStorage 

java.lang.RuntimeException: Failed to create DataStorage 
    at org.apache.pig.backend.hadoop.datastorage.HDataStorage.init(HDataStorage.java:75) 
    at org.apache.pig.backend.hadoop.datastorage.HDataStorage.(HDataStorage.java:58) 
    at org.apache.pig.backend.hadoop.executionengine.HExecutionEngine.init(HExecutionEngine.java:214) 
    at org.apache.pig.backend.hadoop.executionengine.HExecutionEngine.init(HExecutionEngine.java:134) 
    at org.apache.pig.impl.PigContext.connect(PigContext.java:183) 
    at org.apache.pig.PigServer.(PigServer.java:226) 
    at org.apache.pig.PigServer.(PigServer.java:215) 
    at org.apache.pig.tools.grunt.Grunt.(Grunt.java:55) 
    at org.apache.pig.Main.run(Main.java:452) 
    at org.apache.pig.Main.main(Main.java:107) 
Caused by: java.io.IOException: Call to localhost/127.0.0.1:54310 failed on local exception: java.io.EOFException 
    at org.apache.hadoop.ipc.Client.wrapException(Client.java:775) 
    at org.apache.hadoop.ipc.Client.call(Client.java:743) 
    at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220) 
    at $Proxy0.getProtocolVersion(Unknown Source) 
    at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359) 
    at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:106) 
    at org.apache.hadoop.hdfs.DFSClient.(DFSClient.java:207) 
    at org.apache.hadoop.hdfs.DFSClient.(DFSClient.java:170) 
    at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:82) 
    at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1378) 
    at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66) 
    at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1390) 
    at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:196) 
    at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:95) 
    at org.apache.pig.backend.hadoop.datastorage.HDataStorage.init(HDataStorage.java:72) 
    ... 9 more 
Caused by: java.io.EOFException 
    at java.io.DataInputStream.readInt(DataInputStream.java:375) 
    at org.apache.hadoop.ipc.Client$Connection.receiveResponse(Client.java:501) 
    at org.apache.hadoop.ipc.Client$Connection.run(Client.java:446) 
================================================================================ 
+0

pigがconfigsを見つけることができるように、正しいhadoop環境変数を定義しましたか? – sdolgy

+0

はい私はしました。これはユーザーのアクセス許可のためですか?何か案が? – vrrathod

答えて

3

Link次は私を与えるpigを入力し、私は失敗の原因を理解して助けました。

ここに私の問題が修正されました。
1. hadoopなしでブタを再コンパイルします。
2. $ HADOOP_HOME/libのすべてのjarを持つようにPIG_CLASSPATHを更新します。
3.ブタを実行します。

ありがとうございました。

-1

ちょうどCygwinをインストールし、その後、パス環境変数にCygwinのパスを追加します。詳細については

hereを参照してください。

+0

このエラーはどのように解決できますか?リンクの腐敗を避けるためにリンクする代わりに、ここにソリューションを入れてください。 –

0

正しいHADOOP_HOMEインストールを指すようにPIG_CLASSPATHを設定して、Pigがcore-site.xml、mapreduce-site.xmlおよびhdfs-site.xmlからurクラスタ情報を取得できるようにしてください。 。

関連する問題