2017-09-13 7 views
0

xgboost(Rリリース)のイントロでは、次のコマンドを使用して、分類子のようなランダムフォレストを構築できます。 Pythonでxgboostと同じことをすることは可能ですか?Pythonでxgboostを使用するランダムフォレストの構文

#Random Forest™ - 1000 trees 
bst <- xgboost(data = train$data, label = train$label, max_depth = 4, num_parallel_tree = 1000, subsample = 0.5, colsample_bytree =0.5, nrounds = 1, objective = "binary:logistic") 

答えて

1

はい、同じパラメータをPythonで使用できます。あなたはdemoディレクトリにxgboost使用する方法のいくつかのpythonの例を見つけることができます。

https://github.com/dmlc/xgboost/tree/master/demo/guide-python

単にPythonであなたのRコマンドからパラメータを供給し、それが同じように動作するはずです。

+0

問題は、num_parallel_treeとnroundsのパラメータがxgboostのpythonのドキュメントに存在しないことです。 –

+0

ああ、あなたが言っていることが分かります。まあ、私が思うには、python apiでnum_boost_roundと呼ばれています。そしてnum_parellel_treeは明示的に文書化されていなくても、python apiに存在します。トレーニングファイルのnum_boost_roundを検索するには:https://github.com/dmlc/xgboost/blob/master/python-package/xgboost/training.py – ftiaronsem

+1

num_parallel_treeパラメータを使用するpythonファイルも見つかりました。 https://programtalk.com/vs2/python/6841/ensemble_amazon/XGBoostClassifier.py/を参照してください。注:num_roundという自己定義のパラメータを使用し、それをPython APIのnum_boost_roundと呼ばれるものに渡します。 – ftiaronsem

関連する問題