h2o

    1

    2答えて

    HadoopクラスターでH2Oを開始しようとしています。残念ながら、それは動作しませんし、クラスwater.hadoop.h2omapperが見つからないというエラーを私に与えます。 Hadoop環境は、バージョン2.6ではHDPであり、1つはYARNリソースマネージャを実行し、3つのノードはYARNクライアントを持つデータノードです。データノードにはそれぞれ32GBのRAMと4つのCPUコアのリ

    0

    2答えて

    私はh2oでGBMをオーバーフィットしようとしています(私はそれが奇妙だと知っていますが、私はこれを要します)。だから、私は木のMAX_DEPTH、収縮、および無効停止基準増加: overfit <- h2o.gbm(y=response , training_frame = tapp.hex , ntrees = 100 , max_dept

    1

    1答えて

    私はちょうど動作を取得しようとしていますが、Web UIのポートを変更しています。私はヘルプファイルを見てきました。彼らは、古いバージョンのスパークリングウォーターを参照しているようです。現在実行中 from pysparkling import * hc = H2OContext.getOrCreate(spark) デフォルト54321ポートで起動しています。私は渡すconfオブジェク

    1

    1答えて

    を使用。以下の関数呼び出しと関連するエラーを参照してください。 base_line_rf <- h2o.randomForest(x=2:ncol(train), y=1, ntrees = 10000, mtries = ncol(train)-1, training_frame = train,

    1

    1答えて

    h2oインターフェイスを使用して、私は以前に作成されたデータフレームの名前を変更する方法を見つけることができません。 私は経由して道を見つけるためにしようとしていた:getFrameSummaryコマンドを、ない名前変更オプションはありません。 どのような回避策ですか?ありがとうございます。

    1

    1答えて

    私は多くのモデルをテストしてパラメータを調整しています。iPython Notebookを乱雑にしている「ビルドの進行状況」バーについては、あまり気にしません。私はいくつかの種類の "冗長"設定を探してドキュメントをスキミングしましたが、それを見つけることはできません。何十ものモデルを一度に訓練して評価したいときにこれをオフにする方法はありますか?

    1

    2答えて

    私はEncoding: latin-1を持つパンダのデータフレームを持っていて、それは;で区切られています。データフレームは、ほとんどsize: 350000 x 3800の非常に大きいです。私はsklearnを最初に使いたかったのですが、データフレームに値がない(NAN values)ので、sklearnのランダムフォレストやGBMを使用できませんでした。だから私はH2O'sデータセットのトレー

    0

    1答えて

    h2o flowで生成されたDRFモデルを使用しています。このモデルに対して新しい入力データを実行する場合(のjavaプログラムでMOJOを使用)、UnknownCategoricalLevels(getUnknownCategoricalLevelsSeen()とgetUnknownCategoricalLevelsSeenPerColumn()methodsでチェックしてください)が多数ありま

    0

    1答えて

    私はDriverlessAI(H2O.ai)を使用していて、スコアラー(DriverlessAIから作られた診断モデル)を使用しようとしていますが、エラーが発生しました。 run_tcp_client.shを実行し、エラー 『倹約輸入スリフト ModuleNotFoundErrorから では、5行目、:『倹約』という名前のないモジュール「example_client.py」ファイル』 が発生しまし

    0

    1答えて

    をシャットダウンし、スパークリングウォーターのPythonの例(https://github.com/h2oai/sparkling-water/blob/rel-2.2/py/examples/scripts/H2OContextInitDemo.py)最も簡単な使用: from pysparkling import * from pyspark.sql import SparkSession