2017-05-04 6 views
2

私はXGBoostを早めに停止して使用しています。約1000エポック後、モデルはまだ改良されていますが、改善の大きさは非常に低いです。私は:XGBoost早期停止のためのTolの設定

clf = xgb.train(params, dtrain, num_boost_round=num_rounds, evals=watchlist, early_stopping_rounds=10) 

早期停止のために "tol"を設定することはできますか?すなわち、早期停止を引き起こさないために必要とされる最小レベルの改善である。

Tolは、MLPClassifierやQuadraticDiscriminantAnalysisなどのSKLearnモデルの一般的なパラメータです。ありがとうございました。

答えて

1

xgboostにパラメータtolがあるとは思わないが、early_stopping_roundを高く設定することができます。このパラメータは、テストセットのパフォーマンスがearly_stopping_round回改善されない場合は停止することを意味します。 1000エポック後にモデルが改善しているものの、非常にゆっくりとしていることが分かっている場合は、例えば、early_stopping_roundを50に設定すると、パフォーマンスのわずかな変化に対してより耐性があります。

関連する問題