ディープニューラルネットワークでクロスバリデーションを実行するにはどうすればよいですか?私は、クロスバリデーションを実行して1つを除いたすべてのフォールドでそれを訓練し、除外されたフォールドでそれをテストすることを知っています。次に、k倍の時間にわたってこれを行い、各折りたたみの正確度を平均化する。各反復ごとにどのようにこれを行うのですか?それぞれの折り目でパラメータを更新しますか?または、繰り返しごとにk倍のクロス検証を実行しますか?あるいは、すべてのフォールドで各トレーニングを行いますが、1回は1回の反復と見なされますか?ディープニューラルネットワークのクロスバリデーション
0
A
答えて
2
Cross-validationは、オーバーフィッティングを防ぐためのMLの一般的なテクニックです。深い学習モデルでそれを行うことと線形回帰でそれを行うこととの間に違いはありません。アイデアはすべてのMLモデルで同じです。 CVの背後にある基本的な考え方は、あなたの質問には正しいと書いてあります。
しかし、質問は、繰り返しごとにこれを行いますは意味をなさないです。 CVアルゴリズムには、訓練中に反復に関連するものは何もありません。あなたはあなたのモデルを訓練した後、それを評価するだけです。
各折り返しでパラメータを更新しますか?。あなたは同じモデルをk回訓練し、おそらく異なるパラメータを持つたびにトレーニングします。
DLにCVが必要でないという答えは間違っています。 CVの基本的な考え方は、限られたデータセットでモデルのパフォーマンスをより正確に評価することです。あなたのデータセットが小さければ、kモデルを訓練する能力があなたに良い見積もりを与えます(サイズの縮小はあなたが〜k倍の時間を費やすことです)。あなたが100mlの例を持っているなら、おそらく5%のテスト/バリデーションが設定されているので、あなたには良い見積もりが与えられます。
関連する問題
- 1. Python:ディープニューラルネットワーク
- 2. Scikitlearn - クロスバリデーション
- 3. CARTモデルのクロスバリデーション
- 4. クロスバリデーションの問題
- 5. ROCとのクロスバリデーション?
- 6. sparkrのクロスバリデーション
- 7. トレーニング/テストセットとのクロスバリデーション
- 8. SVM回帰のクロスバリデーション
- 9. LeaveOneOut scikitのクロスバリデーションLearn
- 10. ケラスとクロスバリデーション
- 11. クロスバリデーションとグリッド検索
- 12. クロスバリデーション+スケルトンの決定木
- 13. Tensorflowでディープニューラルネットワークを微調整する
- 14. TensorFlow/Sklearnディープニューラルネットワーク分類器型エラー
- 15. Knimeを使用したクロスバリデーション
- 16. WSO2 MLクロスバリデーションとグリッド検索
- 17. オレンジ色のpythonライブラリとのクロスバリデーション
- 18. キャレットとsvmの予測のクロスバリデーション
- 19. ケラを用いたK倍のクロスバリデーション
- 20. 複数回線形回帰のクロスバリデーションR
- 21. scikit-learnで10×10倍のクロスバリデーション?
- 22. クロスバリデーション(Weka)のカスタム折りたたみ
- 23. Tensorflowでのディープニューラルネットワークのアーキテクチャを指定する方法は?
- 24. Tensorflowを使用したディープニューラルネットワークの精度が低い
- 25. ディープニューラルネットワークの訓練に必要な画像数
- 26. ディープニューラルネットワークの精度における極小値
- 27. クロスバリデーションを使用したscikits混同マトリクス
- 28. クロスバリデーションをランダムに作成する
- 29. 回帰問題にディープニューラルネットワークを使用できますか?
- 30. ディープニューラルネットワークはトレーニング時にウエイトを更新しません
他のMLモデルと同じようにK-Fold Cross Validationを実行します.Kモデルをトレーニングするだけです。これは反復とは関係ありません。 –
これはどういう意味ですか?反復ごとにパラメータを更新するからです。では、クロス検証を1回の反復と見なしていますか? – Chaine
いいえ、更新パラメータは相互検証とは関係ありません! –