一部カフェ損失が、これはトレーニングプロセスは、今までどのように見えるかである私のパラメータの
base_lr: 0.04
max_iter: 170000
lr_policy: "poly"
batch_size = 8
iter_size =16
を減少していないようですここまたはこの正常な?
一部カフェ損失が、これはトレーニングプロセスは、今までどのように見えるかである私のパラメータの
base_lr: 0.04
max_iter: 170000
lr_policy: "poly"
batch_size = 8
iter_size =16
を減少していないようですここまたはこの正常な?
解決策は、ソルバステートスナップショットからトレーニングを再開する前に、基本学習率を10倍に下げることでした。
自動的にこの同じソリューションを実現するために、あなたはあなたのsolver.prototxtに「ガンマ」と「ステップサイズ」のパラメータを設定できます。
base_lr: 0.04
stepsize:10000
gamma:0.1
max_iter: 170000
lr_policy: "poly"
batch_size = 8
iter_size =16
これは、10すべての万回の繰り返しの要因によってあなたのbase_lrを削減します。
値の間で損失が変動し、ディップする前に一定値の周りをホバーすることも正常です。これはあなたの問題の原因となる可能性があります。私は上記の実装に落ちる前に、1800回の繰り返しを十分に訓練することをお勧めします。 caffe列車ロスログのグラフを参照してください。
さらに、将来の質問はcaffe mailing groupにお問い合わせください。これは、すべてのcaffeの質問とソリューションの中心的な場所として機能します。
私はこれに苦しんでいましたが、私はそれを理解する前にどこでも解決策を見つけられませんでした。私にとってうまくいくものがあなたのために働くことを願っています!
lr_policyステップでは、n回の反復ごとに学習率は低下しませんが、1回だけ減少することに注意してください。いくつかのステップを行うには、miltistepのポリシーを使用する必要があります – Shai
私はcaffeグループに私の質問を指示しようとしましたが、回答率が低すぎる、質問は答えられないか、 – Ryan