2

はアガリクスのサンプルデータのための一例である異なるPythonのAPIを使用してXGBoostの結果とwapper scikit-学ぶ

[[ 9.98860419e-01 1.13956432e-03] 
[ 2.97790766e-03 9.97022092e-01] 
[ 9.98816252e-01 1.18372787e-03] 
..., 
[ 1.95205212e-04 9.99804795e-01] 
[ 9.98845220e-01 1.15479471e-03] 
[ 5.69522381e-04 9.99430478e-01]] 

[ 0.21558253 0.7351886 0.21558253 ..., 0.81527805 0.18158565 
    0.81527805] 

はなぜ結果が異なっていますか?デフォルトのパラメータ値はすべて同じようです。そして、私はここにpredict_probaが[prob, 1- prob]を返すという意味ではありません。

xgboostのv0.6、scikit-学ぶv0.18.1、あなたがxgb.trainに直接n​​um_boost_roundパラメータを渡す必要があるのpython 2.7.12

答えて

3

bst = xgb.train(param, dtrain,num_boost_round=param['n_estimators']) 

それ以外の場合は、のparam [「を無視するためn_estimatorsのデフォルト]を使用し、xgb.trainインターフェイスの場合は現在10です。

関連する問題