xgboost

    0

    0答えて

    私のMac(10.12.5)にxgboostをインストールしようとしていますが、いくつか試行しても成功しませんでした。私はgcc-6を追加してgcc変数を変更しようとしている別のtutoに従っていますが、同じ問題があります。 だから私がやったこと: gitのクローン--recursive https://github.com/dmlc/xgboost のCD xgboost。 cp make/mi

    6

    1答えて

    私のデータセットは、90%の陰性サンプルと10%の陽性サンプルを持ち、非常に不均衡です。私はscale_pos_weightのパラメータを使用して9に設定しようとしています。このparamのメカニズムは何ですか。私はそれが実際に何を意味するのか興味があります:それは陽性サンプルを9回繰り返すことを意味しますか?あるいは、毎回ネガティブサンプルの1/9サンプルを取り出し、何度もモデルをトレーニングし

    2

    1答えて

    バイナリ分類問題でxgboostクラシファイアをトレーニングします。 70%正確な予測が得られます。しかし、ログロスは9.13で非常に大きいです。なぜなら、いくつかの予測が目標をはるかに超えているからだと思うが、なぜそれが起こるのか分からない。他の人は、xgboostを使って同じデータに対してもっと良いlogloss(0.55-0.6)を報告する。 from readCsv import x_tr

    0

    1答えて

    import operator import pandas as pd import numpy as np import matplotlib.pyplot as plt import xgboost as xgb import seaborn as sns %matplotlib inline pd.set_option('display.max_columns', 50)

    1

    1答えて

    大きな欠損値(40%以上欠損)を持つデータセットがあります。 xgboostとH2oのグラジエントブースティングでモデル化された - 両方のケースでまともなモデルを得ま​​した。しかし、xgboostはこの変数をモデルの主要な貢献者の1つとして示していますが、H2o Gradient Boostingによれば変数は重要ではありません。 xgboostは欠損値を持つ変数を別々に扱いますか?両方のモデ

    0

    1答えて

    frame = [] for i in range(1,21): frame.append(sampler(i)) # sampler is a function which return an array of 764*36 header = ['Act_High', 'Act_Low', 'Act_Avg', 'Precip_Amt', 'Festival_Impact'

    0

    2答えて

    回帰タスクの機能選択をXGBRegressor()で実行しようとしています。 より正確には、私が知っているしたいと思います: を私は回帰のために使用することができXGBClassifierと利用方法 feature_importances_、のようなものがある場合。 それは最後に、私は、この問題を解決したXGBRegressor()

    3

    1答えて

    に私は私が私のターミナルでpython2.7またはpython3.6からxgboostをインポートすることができますが、事は、私はそれをインポートすることはできませんということです (私はMACによ)の下に問題を抱えています私のジュピターノート。 import xgboost as xgb ModuleNotFoundErrorトレースバック(最新の呼び出しの最後) XGB ModuleNot