2016-12-12 18 views
0

私はテスト目的でいくつかの基本的なスパークコードを実行するために、迷路を採用した4つのubuntu vmsのクラスタを作成しました。私はすべてのマシンにパスワードなしのSSHフィンガープリントを設定し、私は、ファイアウォールを無効にしますがspunk worker ubuntu仮想マシン接続エラークラスタへ

/usr/local/spark/bin/spark-submit --class "class.main" --deploy-mode client --master spark://<IP>:7077 /vagrant/.../class.main-assembly-1.0.jar "file:/vagrant/.../input.csv" 

同じコマンドを実行している間、私はまだ上で実行されている、いくつかのエラーの接続を取得しています--masterローカル[*]期待通りに動作します。労働者のウェブUIがあるエラーが読める形式:

Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties 
16/12/12 16:28:12 INFO CoarseGrainedExecutorBackend: Started daemon with process name: [email protected] 
    16/12/12 16:28:12 INFO SignalUtils: Registered signal handler for TERM 
    16/12/12 16:28:12 INFO SignalUtils: Registered signal handler for HUP 
    16/12/12 16:28:12 INFO SignalUtils: Registered signal handler for INT 
    16/12/12 16:28:13 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 
    16/12/12 16:28:13 INFO SecurityManager: Changing view acls to: root,vagrant 
16/12/12 16:28:13 INFO SecurityManager: Changing modify acls to: root,vagrant 
16/12/12 16:28:13 INFO SecurityManager: Changing view acls groups to: 
16/12/12 16:28:13 INFO SecurityManager: Changing modify acls groups to: 
16/12/12 16:28:13 INFO SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(root, vagrant); groups with view permissions: Set(); users with modify permissions: Set(root, vagrant); groups with modify permissions: Set() 
Exception in thread "main" java.lang.reflect.UndeclaredThrowableException 
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1713) 
at org.apache.spark.deploy.SparkHadoopUtil.runAsSparkUser(SparkHadoopUtil.scala:70) 
at org.apache.spark.executor.CoarseGrainedExecutorBackend$.run(CoarseGrainedExecutorBackend.scala:174) 
at org.apache.spark.executor.CoarseGrainedExecutorBackend$.main(CoarseGrainedExecutorBackend.scala:270) 
at org.apache.spark.executor.CoarseGrainedExecutorBackend.main(CoarseGrainedExecutorBackend.scala) 
Caused by: org.apache.spark.SparkException: Exception thrown in awaitResult 
at org.apache.spark.rpc.RpcTimeout$$anonfun$1.applyOrElse(RpcTimeout.scala:77) 
at org.apache.spark.rpc.RpcTimeout$$anonfun$1.applyOrElse(RpcTimeout.scala:75) 
at scala.runtime.AbstractPartialFunction.apply(AbstractPartialFunction.scala:36) 
at org.apache.spark.rpc.RpcTimeout$$anonfun$addMessageIfTimeout$1.applyOrElse(RpcTimeout.scala:59) 
at org.apache.spark.rpc.RpcTimeout$$anonfun$addMessageIfTimeout$1.applyOrElse(RpcTimeout.scala:59) 
at scala.PartialFunction$OrElse.apply(PartialFunction.scala:167) 
at org.apache.spark.rpc.RpcTimeout.awaitResult(RpcTimeout.scala:83) 
at org.apache.spark.rpc.RpcEnv.setupEndpointRefByURI(RpcEnv.scala:88) 
at org.apache.spark.executor.CoarseGrainedExecutorBackend$$anonfun$run$1.apply$mcV$sp(CoarseGrainedExecutorBackend.scala:188) 
at org.apache.spark.deploy.SparkHadoopUtil$$anon$1.run(SparkHadoopUtil.scala:71) 
at org.apache.spark.deploy.SparkHadoopUtil$$anon$1.run(SparkHadoopUtil.scala:70) 
at java.security.AccessController.doPrivileged(Native Method) 
at javax.security.auth.Subject.doAs(Subject.java:422) 
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1698) 
... 4 more 
Caused by: java.io.IOException: Failed to connect to /10.0.2.15:48219 
at org.apache.spark.network.client.TransportClientFactory.createClient(TransportClientFactory.java:228) 
at org.apache.spark.network.client.TransportClientFactory.createClient(TransportClientFactory.java:179) 
at org.apache.spark.rpc.netty.NettyRpcEnv.createClient(NettyRpcEnv.scala:197) 
at org.apache.spark.rpc.netty.Outbox$$anon$1.call(Outbox.scala:191) 
at org.apache.spark.rpc.netty.Outbox$$anon$1.call(Outbox.scala:187) 
at java.util.concurrent.FutureTask.run(FutureTask.java:266) 
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) 
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) 
at java.lang.Thread.run(Thread.java:745) 
Caused by: java.net.ConnectException: Connection refused: /10.0.2.15:48219 
at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) 
at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:717) 
at io.netty.channel.socket.nio.NioSocketChannel.doFinishConnect(NioSocketChannel.java:224) 
at io.netty.channel.nio.AbstractNioChannel$AbstractNioUnsafe.finishConnect(AbstractNioChannel.java:289) 
at io.netty.channel.nio.NioEventLoop.processSelectedKey(NioEventLoop.java:528) 
at io.netty.channel.nio.NioEventLoop.processSelectedKeysOptimized(NioEventLoop.java:468) 
at io.netty.channel.nio.NioEventLoop.processSelectedKeys(NioEventLoop.java:382) 
at io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:354) 
at io.netty.util.concurrent.SingleThreadEventExecutor$2.run(SingleThreadEventExecutor.java:111) 
... 1 more 

は、誰もが似たものを見たし、解決策を知っていますか?助けや助言をいただければ幸いです。事前にありがとう

答えて

0

私はあなたがVirtualboxを使用していると思いますし、すべてのノードが同じVirtualbox NATネットワーク上にあると思います。 Sparkを動作させるには、Virtualboxに "Host-only network"を設定し、すべてのマシンがそのネットワーク内にあることを確認する必要があります(例えば、2つのネットワークアダプタ、1つはNAT、もう1つはホストのみネットワーク)。

それがセットアップされたとき、あなたはマスターのIPはどこでも同じとローカルIPは、その172 IPアドレスであることを確認すること、各マスタとスレーブノード上conf/spark-env.shSPARK_LOCAL_IP=172.1.2.*SPARK_MASTER_IP=172.1.2.3を設定する必要があります。

のようなものを実行、マスターを起動するには:

:ような何かを、アプリケーションを実行するための

最後に
~/spark-2.1.0-bin-hadoop2.7/sbin/start-slave.sh -h 172.1.2.4 spark://172.1.2.3:7077 

、:のようなものを実行し、スレーブを起動するには

~/spark-2.1.0-bin-hadoop2.7/sbin/start-master.sh -h 172.1.2.3 

spark-submit --master spark://172.1.2.3:7077 --class org.apache.spark.examples.SparkPi ~/spark-2.1.0-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.1.0.jar 100 
関連する問題