私はニューラルネットワークの複製に取り組んでいます。標準のレイヤータイプの仕組みを理解しようとしています。特に、私はクロスチャネル正規化レイヤーがバックワードパスでどのように振る舞うかの記述のどこかを見つけるのが難しいです。次の(すなわち、それ以降)層からクロスチャネルローカルレスポンス正規化(LRN)レイヤによるバックプロパゲーションアルゴリズム
エラー勾配彼らに何もせずに逆方向に渡されます。正規層はパラメータはありませんので
、私は2つの可能なオプションを推測することができます。
勾配は、順方向パスのチャンネル間で正規化されたのと同じ方法で正規化されます。
私は、あなたが直観に基づいて一方を行う理由を考えることができないので、なぜこれについて助けたいのですか?
EDIT1:ここhttp://caffe.berkeleyvision.org/tutorial/layers.html説明したよう
層は、カフェでの標準的な層である( 'ローカルレスポンスの正規化(LRN)' を参照)。
往路でのレイヤーの実装はalexNet紙のセクション3.3で説明されて:http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
EDIT2:私は前方および後方パスアルゴリズムは、ここでトーチライブラリの両方に記述されていると信じて
:https://github.com/soumith/cudnn.torch/blob/master/SpatialCrossMapLRN.lua
、ここでカフェライブラリーで:https://github.com/BVLC/caffe/blob/master/src/caffe/layers/lrn_layer.cpp
これらの/両方に精通している誰もが翻訳可能性があります後ろ向きの段階のための方法は普通の英語に?
「クロスチャネル正規化レイヤー」についてのリファレンスにリンクできますか? Googleは他の多くのことについても話すように見えるarxiv論文のみを公開しています。それは標準的なレイヤータイプのようには思えません。 – IVlad
@IVladリンクが追加されました。 – user1488804