誰かが、緻密層と出力層のサイズがそれぞれ256と10である理由を教えてください。畳み込みニューラルネットワークの密な層と出力層の次元を計算するには?
input = 1x28x28
conv2d1 (28-(5-1))=24 -> 32x24x24
maxpool1 32x12x12
conv2d2 (12-(3-1))=10 -> 32x10x10
maxpool2 32x5x5
dense 256
output 10
これらのコンセプトを読み、アニメーションを見てもまだ1つの質問があります。私は2つの入力チャンネルを持っている場合、最初は偶数ピクセルのみを含み、2つは奇数ピクセルしか含みません。その後、順番にそれらが格納されている畳み込み後?なぜなら、これらの偶数ピクセルを、完全に接続されたレイヤのWマトリックスの奇数ピクセルから分離したいからです。保存順序を教えてください。畳み込みの出力は、両方のチャンネルに対応します。 –
この場合、チャンネル間で畳み込むときです。彼らは合計されているので、再び分割することは難しいでしょう。 – hars
私に教えてもらえますか?それらを分ける方法はありますか?はいの場合、どうやってそれをすることができますか? –