10倍の検証では、各折りたたみの開始時に、新しい乱数セットで初期化されていますか?あるいは、k番目のフォールドで学習されたウェイトは、(k + 1)番目のフォールドの初期ウェイトとして機能しますか?ニューラルネットワークをトレーニングする場合のk倍の検証
0
A
答えて
0
列挙、検証、テストのデータセットを取得できない場合は、K-fold検証が主に使用されます。新しい乱数セットでアルゴリズムを初期化しないと、クロスバリデーションのスコアの平均を数えます。
+0
あなたの答えをありがとう。最高の精度をネットワークに与えることができる一連の重みをどのように取得するのですか?私は、以前の倍で学習された重みが次の倍の初期重みとして働く場合、k倍検証の終わりに、最良かつ最適化された重みの集合を得ることができると考えた。 – Natasha
関連する問題
- 1. K倍検証とランダムサンプリングk回
- 2. GLMMのk倍交差検証
- 3. dplyrのk倍交差検証?
- 4. MLP分類でK倍交差検証を実装する
- 5. ニューラルネットワーク:検証確度定数、トレーニング精度の低下
- 6. トレーニング/検証/テストデータの場合でも決定木のオーバーフィット
- 7. Rのgbmの欠落データと層別k倍交差検証
- 8. K倍検証のための分割RDD:pyspark
- 9. glmnetグループ予測のk倍交差検証
- 10. ニューラルネットワーク - バックプロパゲーション、トレーニングのエラー
- 11. PythonのK倍
- 12. ニューラルネットワークmatlabトレーニング後の予測
- 13. キャレットを使用したバランスのとれたk倍交差検証R
- 14. トレーニング、検証およびテストデータセットの組み合わせ
- 15. Tensorflowトレーニング/検証の損失の問題
- 16. パターン認識のためのトレーニング(ニューラルネットワーク)
- 17. トレーニング終了後のニューラルネットワークのデータテストコード
- 18. トレーニングと検証の精度が突然、私は、畳み込みニューラルネットワーク(CNN)を訓練していると私はMNIST上のXの反復後のトレーニングと検証精度の大幅な低下を経験しています畳み込みニューラルネットワーク(CNN)
- 19. 畳み込みニューラルネットワークの検証精度
- 20. モデルのフィールドの検証がない場合の検証エラー
- 21. トレーニング画像の向き分類器 - ニューラルネットワーク
- 22. K倍の相互検証 - 各折り畳み後にネットワークを初期化するかどうか?
- 23. JQueryの検証ロジック - 検証がfalseの場合do something
- 24. laravelコントローラの場合とコントローラの場合の検証方法
- 25. ケラを用いたK倍のクロスバリデーション
- 26. 日付の検証(ksh)の場合
- 27. Laravel検証は、上記の検証が合格した場合にのみ、次の検証に進みます。
- 28. 深いニューラルネットワークのトレーニングトレースの解釈:非常に低いトレーニング損失とさらに低い検証損失
- 29. openai観測でTensorflowニューラルネットワークをトレーニング
- 30. 検証要約Ajaxコールの場合
ほとんどの場合、新しい乱数セットで再初期化されます。 –