私はアーキテクチャを変更した畳み込みニューラルネットワークを使用しています。私はネットワークを10回再訓練し、巨大な相互検証(最適なパラメータに対するグリッド検索)を実行する時間がありません。 直感的に学習率を調整したい。ニューロンやウェイトをニューラルネットワークに追加すると、学習率を増減する必要があります
は私が増える場合や、私のRMS(SGDベース)オプティマイザの学習速度を低下させる必要があります。
- は、私は完全に接続された層に、よりニューロンを追加しますか?
- 畳み込みニューラルネットワークでは、完全接続前にサブサンプリング(平均または最大プーリング)レイヤーを削除し、そのフィーチャーマップとsoftmax出力の間の完全接続ユニットの量を増やします()は完全に接続されたニューロンに接続されています)?
どちらの場合も、正則化を追加し、学習率を下げることは良い考えです。ありがとう。 –
(パラメータが増えているため)オーバーフィットの可能性が高いのは、時間の経過とともに学習率を下げるべきであるということです。どのように学習率を下げることが過不足問題を解決するのに役立ちますか? – Peter
@Peterは必ずしもそうではありません。より多くのレイヤー/ノードをモデルに追加すると、オーバーフィットする傾向があるため、パラメータ値が大きく変更されると、オーバーフィッティングまたはソリューションから分岐する可能性があります。そのような場合には、局所的な最小値に向かって小さなステップを取ることが推奨され、学習率は移動するステップサイズを制御する。 – Amir