caffe.proto fileにそれに関するドキュメントがあります。「ScaleParameter」を検索することができます。
あなたの投稿のためのヒープありがとう:)スケールレイヤーは私が探していたものでした。場合誰もがスカラー(0.5)によってスケーリングした後-2「追加」(およびこれらの値は変更されない)層のための例を望んでいる:
layer {
name: "scaleAndAdd"
type: "Scale"
bottom: "bot"
top: "scaled"
param {
lr_mult: 0
decay_mult: 0
}
param {
lr_mult: 0
decay_mult: 0
}
scale_param {
filler {
value: 0.5 }
bias_term: true
bias_filler {
value: -2
}
}
}
(おそらく、decay_mult年代にかかわらず、ここでは不要です。。しかし、知らんはコメントを参照してください)それ以外は :
- lr_mult:0 - "そのPARAM" のための学習オフに - 私は(常に 最初
"param {"
を考える)の重みを指し、? 2番目にバイアスする(lr_multはScaleLayer固有ではない)
- フィラー: "FillerParameter" [see caffe.proto]小刻みな2番目のblobの塗り方を指示します。デフォルトは1つの定数 "値:..."です。
- bias_filler:caffe.protoから取られたすべてのバイアスブロブ
があるかどうか:パラメータは、オプションのバイアスブロブに
bias_termを埋めるためにどのように伝えます。そして:私は両方のフィラー値= 1.2で上記の層だけをテストしました。
Shai、res2b_branch2bの後にフィルタサイズ1x1の1つの畳み込みレイヤーを置くのと同じです。これを行うと、出力はy = W * x + bとなり、Wとbを正しく学習するでしょうか?後者の最下層を提供していないときは、これはScale層と同じですか? – Dharma
@Dharma 'x'が1Dの場合にのみ同等です。内積とスカラー乗算を混同しないでください。 – Shai
よろしいですか?この場合、W行列全体ではなく、アルファベットとベータの2つのパラメータしか学習しません。私は正しい? – Dharma