ベローは、Kerasのドキュメントのサンプルコードです。最初の畳み込みが3つのカラーチャネルを持つ256x256イメージを受け入れるように見えます。それは64の出力フィルタを持っています(私はこれが他の場所で読んだフィーチャマップと同じだと思います)。私が混乱しているのは、出力サイズが(None、64、256、256)であるということです。色チャンネルのそれぞれに畳み込みを行う必要があるので、(None、64 * 3、256、256)になると思います。私が疑問に思うのは、Kerasがカラーチャンネルをどのようにハンドリングするかということです。畳み込みを通過する前に、値は平均化されてグレースケールに変換されますか?Keras畳み込みレイヤーはカラーチャンネルで何をしますか?
# apply a 3x3 convolution with 64 output filters on a 256x256 image:
model = Sequential()
model.add(Convolution2D(64, 3, 3, border_mode='same', input_shape=(3, 256, 256)))
# now model.output_shape == (None, 64, 256, 256)
# add a 3x3 convolution on top, with 32 output filters:
model.add(Convolution2D(32, 3, 3, border_mode='same'))
# now model.output_shape == (None, 32, 256, 256)