私はweka多層パーセプトロンを使用して分類器を構築しています。問題は、私は非常に多くのデータセットを持っているので、何度も何度も何度も訓練を続けたいと思っています。私はdataset1でbuildClassifierを呼び出した後。私がトレーニングを終えたら、dataset2でbuildClassifierを呼び出すとどうなりますか?何が起こるか?私はすでにdatabase1で訓練されたネットワークが失われていますか?または、次回ビルドクラスター(dataset2)を呼び出したときの開始点は、訓練されたdataset1のネットワークですか?それが最初のケースであれば、私がweka MLPを使って言ったように私ができることはありますか?私はMLPにシードを渡しておりません場合は、デフォルトのシードが0Weka多層パーセプトロン増分学習
のおかげであることから
また、私はネットワークを推測していますことは、常に私に同じ初期重量が返されます!
表示:
は、より多くの情報のためのドキュメントを参照してください。 –