2017-09-22 3 views
0

h2o steam(ローカルホストで実行中)を使用してモデルを展開しようとしています。 「展開」ボタンを、プロジェクトの"models"セクションで"deploy model"オプションをクリックし、h2o flowからモデルをインポートし、表示されたダイアログボックスを記入し、クリックした後、次のメッセージが表示されます。H2O Steam deployが予測サービスビルダーに接続できません

enter image description here

で最初は自分でサービスビルダーを起動する必要があるかもしれないと思ったので、ドキュメントhereに従って起動しましたが、同じエラーが表示されました。任意の提案をいただければ幸いです。ありがとう:)

答えて

0

私はsteamは、(私はドンを起動しようとしていると仮定しているローカルホスト:8080にアクセスするためのデフォルトのブラウザの制限のいくつかの種類を "オーバーライド"する必要があるように見えるhereネットワーキング関連のものについてたくさん知っている))。ポートはIにより得た(1025、65535)との間のいくつかの任意の範囲である

$ ./steam serve master --prediction-service-host=localhost --prediction-service-port-range=12345:22345 

steamソースcode(線182のページとしての単語が、検索:私はコマンドでsteamを起動することによってこの問題を回避得この投稿の日付の)。

これを行うと、エラーメッセージなしでsteamダイアログを使用してモデルを展開できます。再び、私はネットワーキング関連のものについてはあまり知らないので、誰かがこの問題を解決する良い方法を持っている(つまり、localhost:8080のアクセスを許可する)場合は、投稿またはコメントしてください。ありがとう。

0

シェルで次のコマンドを実行してjetty HTTPサーバーがローカルで実行されていることを確認してください: java -jar var/master/assets/jetty-runner.jar var/master/assets/ROOT.war

関連する問題