xgboost

    4

    1答えて

    目的関数 'multi:softmax'を使って、xgb.XGBClassifierにクラス数または評価メトリックの数を渡す方法がわかりません。 私は多くの文書を見ましたが、n_class/num_classを受け入れるsklearnラッパーについての唯一の話です。 私の現在の設定は、あなたがXGBoostの分類のためのAPIを学ぶscikitにnum_classを設定する必要はありません kf

    1

    1答えて

    xgboost(Pythonだけでなく)を使用するたびに、トレーニングメッセージには常に各行に "0プルーンノード"が含まれます。たとえば: import pandas as pd from sklearn import datasets import xgboost as xgb iris = datasets.load_iris() dtrain = xgb.DMatrix(iris.

    7

    1答えて

    キャレットを使ってxgboostのモデルフィッティングプロセスを並列化したいと思っています。 xgboostのdocumentationで見たことから、nthreadパラメータは、モデルをフィッティングする際に使用するスレッドの数を制御し、並列にツリーを構築します。キャレットのtrain関数は、例えばk倍CVで反復ごとにプロセスを実行するという意味で並列化を実行します。それがそのパラメータを渡すよ

    2

    1答えて

    私は理解していないことを経験しています。私が理解していることは、「this」は生きているオブジェクトではnullにはなりませんが、以下に示すケースでは、私はそのようなことを経験しています。 コンテキスト - このケースではXGBoost4J-Sparkパッケージを使用しています。ソースコードhereを見ることができます。具体的には、XGBoostEstimatorクラスを参照しています。私はクラス

    0

    1答えて

    訓練を受けたxgboostモデルには、xgboost.cvから直接アクセスする方法はありますか?または、手動で折り畳みをループして、この場合にフィットを実行する必要がありますか? xgb.cv(param, dtrain, num_round, nfold = 5, seed = 0, obj = logregobj, feval=evalerror)

    0

    1答えて

    (F38 < 2.5)(コード行2及び6) 結果の出力は次のようになります xgb.dump(model_2,with.stats=T) [1] "booster[0]" [2] "0:[f38<2.5] yes=1,no=2,missing=1,gain=173.793,cover=6317" [3] "1:leaf=-0.0366182,cover=3279.75

    6

    1答えて

    私はpysparkでpretrained xgboostクラシファイアを使用したいが、クラスタ上のノードにはxgboostモジュールがインストールされていない。私は訓練して放送した分類器をピケッとすることができますが、各クラスタノードでモジュールをロードする必要があるので、これでは十分ではありません。 私はルートがなく、共有ファイルシステムがないため、クラスタノードにはインストールできません。 s

    1

    1答えて

    私はこの2つのGBMの派生物をCaretで使用しています。 私は同じデータセットでalgoを試しましたが、異なる精度で戻り、別の時間に実行します。 名前では、最初は線形関数をどこかで使用し、もう1つはツリーを使用すると考えることができます。 とにかく、TreeではなくLinearをどこで使うのか分かりません。 私はGBMアルゴリズムが予測子としてツリーを使用していることを知っています。最初のケース

    1

    1答えて

    最近、xgboostのCLIバージョンを使用して入力を予測しようとすると、その結果はPythonバージョンとは大きく異なります。 pythonで 、私はこのようにそれを予測する: data = xgb.DMatrix(X) bst = xgb.Booster() bst.load_model(modelfile) leafindex = bst.predict(data, pred_leaf