2017-08-07 21 views
0

私は、畳み込みニューラルネットワークのKerasの例を見ています。 (例えば、https://github.com/fchollet/keras/blob/master/examples/imdb_cnn.pyを参照してください)しかし、私は "hidden_​​dims"パラメータの意味を理解できません。私はそれが隠された次元を表していることを知っていますが、隠された次元は何ですか?そして、それらは隠れた層とどう違うのですか?あなたがにリンクされたコードでKeras CNN隠し寸法

答えて

1

、あなたはそのため

hidden_dims = 250 
model.add(Dense(hidden_dims)) 

を持って、hidden_dimsは、この中間層のニューロンの数です。 は、例えば、以下のネットワークの第一の隠れ層のニューロンの数は4:

enter image description here

関連する問題