2016-11-05 19 views
0

私はweka多層パーセプトロンを使用して分類器を構築しています。問題は、私は非常に多くのデータセットを持っているので、何度も何度も何度も訓練を続けたいと思っています。私はdataset1でbuildClassifierを呼び出した後。私がトレーニングを終えたら、dataset2でbuildClassifierを呼び出すとどうなりますか?何が起こるか?私はすでにdatabase1で訓練されたネットワークが失われていますか?または、次回ビルドクラスター(dataset2)を呼び出したときの開始点は、訓練されたdataset1のネットワークですか?それが最初のケースであれば、私がweka MLPを使って言ったように私ができることはありますか?私はMLPにシードを渡しておりません場合は、デフォルトのシードが0Weka多層パーセプトロン増分学習

のおかげであることから

また、私はネットワークを推測していますことは、常に私に同じ初期重量が返されます!

+0

表示:

は、より多くの情報のためのドキュメントを参照してください。 –

答えて

0

MultilayerPerceptronを段階的に学習することはできません。同じ分類子インスタンスでbuildClassifierメソッドを呼び出すたびに、現在のモデルを新しいモデルで上書きします。

学習プロセスでより多くのサンプルを使用するには、それらをトレーニングセット(dataset1)に追加して、新しいデータセットでbuildClassifierを呼び出す新しい学習プロセスを開始します。これにより、バックプロパゲーションアルゴリズムは、モデルを鍛える!

一方、例えば10エポックでモデルを訓練し、同じデータセットで20エポックを持つ別のモデルを訓練したい場合は、最初のモデルを失うことなく、メソッドmakeCopy()。あなたに最高の答えを与えるより良いあなたを理解することができます人々にあなたのコードを共有し、http://weka.sourceforge.net/doc.stable-3-8/weka/classifiers/functions/MultilayerPerceptron.html

関連する問題