2017-09-01 11 views
0


私は2つの畳み込みレイヤーと2つの密なレイヤーを持つネットワークを訓練しました。
次に、何らかの理由でネットワークの最初のレイヤーとして別の畳み込みレイヤーを追加する必要があるので、レイヤーを追加して他のレイヤーをフリーズしますが、下の画像ではこのレイヤーの重要な変更は行われませんでした。
ネットワークの最初のレイヤーを鍛える方法は?

これはどうして起こるのでしょうか?勾配が消えていくなどの影響がありますか?

bias and weight change of added layer

+0

再現できない問題を診断することは非常に難しいです。問題を説明する[最小、完全で検証可能な例](http://stackoverflow.com/help/mcve)を作成できますか? – Prune

答えて

0

tf.optimizer.minimize() sが、var_listパラメータを受け入れ、あなたが期待どおりに行いますに更新したい変数を置きます。