2
私はXGBoostを早めに停止して使用しています。約1000エポック後、モデルはまだ改良されていますが、改善の大きさは非常に低いです。私は:XGBoost早期停止のためのTolの設定
clf = xgb.train(params, dtrain, num_boost_round=num_rounds, evals=watchlist, early_stopping_rounds=10)
早期停止のために "tol"を設定することはできますか?すなわち、早期停止を引き起こさないために必要とされる最小レベルの改善である。
Tolは、MLPClassifierやQuadraticDiscriminantAnalysisなどのSKLearnモデルの一般的なパラメータです。ありがとうございました。