2017-05-25 6 views
0

隠れ層が1つの最も単純なMNISTソリューションでは、入力をいくつ分割するかのように隠れたニューロンの数を理解できますか? 例:[784,30,10] 784ピクセルを30個の小さなイメージ(各イメージの784/30ピクセル)に分割して計算しますか? ありがとう!MNISTの隠れたレイヤー直観的な理解

答えて

1

私はあなたが何を意味するかは完全にはわかりません。 [784,30,10]のような階層構造のネットワークを持っているなら、784個の入力ニューロン、30個の隠れたニューロン、10個の出力ニューロンがあります。ニューロンは「ピクセル」について何も知らず、パラメータにすぎません。ネットワークは、基本的に最初の入力から30個の値を計算し、出力は前の30個の値から10個の値を計算します。

784ピクセルを30個の小さなイメージ(各イメージの784/30ピクセル)に分割して計算しますか?

いいえ、ニューロンとしては画像がありません。

+0

ここで私の理解は、隠れたレイヤーが実際の入力の抽象化であり、隠れたレイヤーのニューロンも入力以上になることです。それが正しいか? – Demon

+0

@Demon正確に!すべての隠れたレイヤーは、所望の出力に関して実際の入力を抽象化したものです。隠れ層のニューロンは、入力/出力サイズに関係なく、任意の数にすることができます。 –

関連する問題