-1

inception layer残留学習

私は、研究論文からこの画像を複製しようとしています。画像では、オレンジの矢印は残差学習を使用したショートカットを示し、赤で囲まれたレイヤーは拡張された畳み込みを示します。

以下のコードでは、r5はイメージに見られるreluの結果です。簡単にするために、relu層とdilation層の間のコードを除外しました。 テンソルフローでは、残差ショートカットを実行するためにreluとdilated convolutionの結果を正しく組み合わせるにはどうすればよいでしょうか?

#relu layer 
r5 = tf.nn.relu(layer5) 
... 
#dilation layer 
h_conv4 = conv3d_dilation(concat1, 1154) 

答えて

1

画像は非常に単純です - それはあなたがので、にそれらを追加する必要がありますと言う:あなたは瞬間があった場合

#relu layer 
r5 = tf.nn.relu(layer5) 
... 
#dilation layer 
h_conv4 = conv3d_dilation(concat1, 1154) 

#combined 
combined = r5 + h_conv4 
+0

が、私は2番目の質問がありました。これは、私が複製しようとしているアーキテクチャです:http://i.stack.imgur.com/1qLP2.pngこの情報から、デコンボリューションの出力チャネルの数を知る方法はありますか? –

+0

これは 'r5'の形に依存していますが、投影が必要なことはかなり可能です - https://stackoverflow.com/q/46121283/712995 – Maxim

+0

@lejlotこれは3D画像なので、Pは実際には3番目チャンネル数ではない次元 –