私はWEKAのMultilayerPerceptronで次の操作を実行しようとしています:エポック入力の部分のためのトレーニングインスタンスの小さなサブセットでWEKAのMultilayerPerceptron:訓練後、再びトレーニングを
- 列車、全体で
- トレイン残りのエポックのインスタンスの集合。
しかし、自分のコードで次のようにすると、ネットワークは2回目に清潔なスレートで開始するようにリセットされているようです。
mlp.setTrainingTime(smallTrainingSetEpochs);
mlp.buildClassifier(smallTrainingSet);
mlp.setTrainingTime(wholeTrainingSetEpochs);
mlp.buildClassifier(wholeTrainingSet);
私が何か間違ったこと、またはこれは、アルゴリズムがWEKAで動作するようになっているということな方法であるだろうか?
さらに詳しい情報が必要な場合は、私にお知らせください。私はwekaを使ってプログラミングするのは初めてのことですが、どんな情報が役立つかは不明です。