0
私はAzure ACS経由でインストールされたdcosを使用しています。デフォルトのオプションでdcosツールを介してhdfsとsparkをインストールしました。 SparkStreamingContextの作成新しいSpark StreamingContextがhdfsエラーで失敗する
ができます:
16/07/22 01:51:04 WARN DFSUtil: Namenode for hdfs remains unresolved for ID nn1. Check your hdfs-site.xml file to ensure namenodes are configured properly.
16/07/22 01:51:04 WARN DFSUtil: Namenode for hdfs remains unresolved for ID nn2. Check your hdfs-site.xml file to ensure namenodes are configured properly.
Exception in thread "main" java.lang.IllegalArgumentException:
java.net.UnknownHostException: namenode1.hdfs.mesos
私は-optionsとdcos package install
とスパークパッケージを再配備する必要が期待=が、hdfs.config-url
がどうあるべきかを把握することはできません。 https://docs.mesosphere.com/1.7/usage/service-guides/spark/install/#hdfsのドキュメントは期限が切れているようです。