0

以下はテンソルフローが提供するコードです。受容野のサイズの変化についての私の現在の理解を説明し、誰かが私の誤解がどこであるかを私に知らせることができれば大いに感謝する。TF CNNの受容野計算式

概要: [28,28] - > 32 [24,24] - > 32 [12,12] - > 2048 [8,8]

ロングバージョン:

  • スタート[28,28]配列
  • 第1の畳み込み層はカーネルサイズ[5,5]の32個のフィルタを持ち、出力は32 [24,24] sです。
  • カーネルが[2,2]で、ストライドが2のプール層は配列の数を維持しますが、出力は32 [12,12]になるようにサイズを縮小します。
  • 次畳み込み層は、[8,8] Sは、後に示されるもののサイズの64のフィルター[5,5]ので、我々が2048で終わる[8,8]

2048 Sはないましたコード。ここで私のエラーは何ですか?すべての指導は高く評価されます。

# Input Layer 
    input_layer = tf.reshape(features["x"], [-1, 28, 28, 1]) 

    # Convolutional Layer #1 
    conv1 = tf.layers.conv2d(
     inputs=input_layer, 
     filters=32, 
     kernel_size=[5, 5], 
     padding="same", 
     activation=tf.nn.relu) 

    # Pooling Layer #1 
    pool1 = tf.layers.max_pooling2d(inputs=conv1, pool_size=[2, 2], strides=2) 

    # Convolutional Layer #2 and Pooling Layer #2 
    conv2 = tf.layers.conv2d(
     inputs=pool1, 
     filters=64, 
     kernel_size=[5, 5], 
     padding="same", 
     activation=tf.nn.relu)    
    pool2 = tf.layers.max_pooling2d(inputs=conv2, pool_size=[2, 2], strides=2) 

    # Dense Layer 
    pool2_flat = tf.reshape(pool2, [-1, 7 * 7 * 64]) 
    dense = tf.layers.dense(inputs=pool2_flat, units=1024, activation=tf.nn.relu) 
    dropout = tf.layers.dropout(
     inputs=dense, rate=0.4, training=mode == tf.estimator.ModeKeys.TRAIN) 

答えて

1

conv2d層は、出力が同じサイズになるように入力がゼロでパディングされることを意味し、padding="same"を使用しています。結果を得るには、padding="valid"を使用すると予想されます。つまり、パディングはありません。