1

私は畳み込みニューラルネットワークを構築するためにテンソルフローを使用しています。テンソルの形状(なし、16,16,4,192)が与えられたとき、私は転置畳み込みを実行して形状(none、32、32、7、192)にします。転置畳み込み(デコンボリューション)演算

[2,2,4,192,192]のフィルタサイズと[2,2,1,1,1]のストライドが、私が望む出力形状を作り出しますか?

+0

をあなたはそれを試してみた場合はどうなりますか? – mrry

答えて

1

はい、ほとんど正しいです。

一つマイナー補正tf.nn.conv3d_transposeNCDHW又はNDHWC入力フォーマットを期待(あなたは、NHWDCであると思われる)、フィルタ形状は[depth, height, width, output_channels, in_channels]であると予想されることです。

# Original format: NHWDC. 
original = tf.placeholder(dtype=tf.float32, shape=[None, 16, 16, 4, 192]) 
print original.shape 

# Convert to NDHWC format. 
input = tf.reshape(original, shape=[-1, 4, 16, 16, 192]) 
print input.shape 

# input shape: [batch, depth, height, width, in_channels]. 
# filter shape: [depth, height, width, output_channels, in_channels]. 
# output shape: [batch, depth, height, width, output_channels]. 
filter = tf.get_variable('filter', shape=[4, 2, 2, 192, 192], dtype=tf.float32) 
conv = tf.nn.conv3d_transpose(input, 
           filter=filter, 
           output_shape=[-1, 7, 32, 32, 192], 
           strides=[1, 1, 2, 2, 1], 
           padding='SAME') 
print conv.shape 

final = tf.reshape(conv, shape=[-1, 32, 32, 7, 192]) 
print final.shape 

出力する:これはfilterstrideにディメンションの順序に影響を与え

(?, 16, 16, 4, 192) 
(?, 4, 16, 16, 192) 
(?, 7, 32, 32, 192) 
(?, 32, 32, 7, 192)