2つの最初の層がフィードフォワードで、最後の層が反復するニューラルネットワークを構築したいと思います。Kerasで高密度層と繰り返し層をマージする
model = Sequential()
model.add(Dense(150, input_dim=23,init='normal',activation='relu'))
model.add(Dense(80,activation='relu',init='normal'))
model.add(SimpleRNN(2,init='normal'))
adam =OP.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08)
model.compile(loss="mean_squared_error", optimizer="rmsprop")
、私はこのエラーを取得:ここ は私のコードがあるKerasで
Exception: Input 0 is incompatible with layer simplernn_11: expected ndim=3, found ndim=2.
model.compile(loss='mse', optimizer=adam)
は、実際に私がここで使うの入力が相関している、ご回答ありがとうございましたので、私はトンに考慮しなければならない時にシステムの出力を意味し、最後の層に短いメモリを作成したいです時刻t-1での出力と(したがって、最後のレイヤーを2つのフォワードレイヤーに先行させたい)あなたはどのようにシーケンス(time_steps)の数を変えることができるか知っていますか? –