0
以下はテンソルフローが提供するコードです。受容野のサイズの変化についての私の現在の理解を説明し、誰かが私の誤解がどこであるかを私に知らせることができれば大いに感謝する。TF CNNの受容野計算式
概要: [28,28] - > 32 [24,24] - > 32 [12,12] - > 2048 [8,8]
ロングバージョン:
- スタート[28,28]配列
- 第1の畳み込み層はカーネルサイズ[5,5]の32個のフィルタを持ち、出力は32 [24,24] sです。
- カーネルが[2,2]で、ストライドが2のプール層は配列の数を維持しますが、出力は32 [12,12]になるようにサイズを縮小します。
- 次畳み込み層は、[8,8] Sは、後に示されるもののサイズの64のフィルター[5,5]ので、我々が2048で終わる[8,8]
2048 Sはないましたコード。ここで私のエラーは何ですか?すべての指導は高く評価されます。
# Input Layer
input_layer = tf.reshape(features["x"], [-1, 28, 28, 1])
# Convolutional Layer #1
conv1 = tf.layers.conv2d(
inputs=input_layer,
filters=32,
kernel_size=[5, 5],
padding="same",
activation=tf.nn.relu)
# Pooling Layer #1
pool1 = tf.layers.max_pooling2d(inputs=conv1, pool_size=[2, 2], strides=2)
# Convolutional Layer #2 and Pooling Layer #2
conv2 = tf.layers.conv2d(
inputs=pool1,
filters=64,
kernel_size=[5, 5],
padding="same",
activation=tf.nn.relu)
pool2 = tf.layers.max_pooling2d(inputs=conv2, pool_size=[2, 2], strides=2)
# Dense Layer
pool2_flat = tf.reshape(pool2, [-1, 7 * 7 * 64])
dense = tf.layers.dense(inputs=pool2_flat, units=1024, activation=tf.nn.relu)
dropout = tf.layers.dropout(
inputs=dense, rate=0.4, training=mode == tf.estimator.ModeKeys.TRAIN)