2017-08-17 18 views
1
x = Input(shape=(timesteps, input_dim,)) 

# LSTM encoding 
h = LSTM(2048)(x) 

これはインターネットからダウンロードしたファイルのコード行です。私はhが2048台の単層LSTM層を保持していると思います。どのようにしてそれを複数のレイヤ、すなわち2つの隠れたレイヤにすることができますかKerasのLSTMの複数レイヤ隠しレイヤー

答えて

2

別のレイヤーを追加するだけです(gと呼ぶことができます)!しかし、別のLSTMレイヤーに渡しているので、return_sequencesキーワードパラメータを最初のレイヤーに追加して、2番目のレイヤーに正しい入力シェイプを取得する必要があります。

x = Input(shape=(timesteps, input_dim,)) 

# LSTM encoding 
h = LSTM(2048, return_sequences=true)(x) 
g = LSTM(10)(h) 
+0

ありがとうございました!私はちょうど私が試したクエリを持っていますh.add(LSTM(2048、input_shape =(timesteps、input_dim)、return_sequences = True)) h.add(LSTM(2048))..私はこれを試した参照コードでエラーが発生しました。 – Tulsi

+0

ok、それはうまくいくはずです、何が質問ですか? – putonspectacles

+0

このリンクをチェックしてくださいhttps://github.com/TulsiJain/keras_lstm_vae/blob/master/lstm_vae/vae.py h = Sequential()h.add(LSTM(2048、input_shape h.add(LSTM(2048)).. https://docs.google.com/document/d/1IqiKliWhj4u-SNcUN4h1T7G94CbFFbiCCe6dZHTzHBs/edit?usp=sharingをスローします。 – Tulsi