私は、異種のソースからなる大きなデータセットでRNNを訓練しています。私は、1つのセットの履歴が次のセットにこぼれ落ちることを望んでいません。これは、あるセットの最後に隠れた状態をリセットしてから、次のセットに送ることを意味します。 Kerasでどうすればいいですか?ドキュメントは、あなたが低レベルの設定に入ることができると主張しています。Kerasの入力データセット間のRNNの非表示状態をリセットできますか?
私がしようとしているのは、新しいデータセットが入力されるたびにlstm隠し状態をリセットすることです。したがって、前のデータセットの影響は引き継がれません。 KarpathyのシンプルなPythonの実装から
prevh = Hout[t-1] if t > 0 else h0
ライン参照 https://gist.github.com/karpathy/587454dc0146a6ae21fc ライン45私はLSTM層を見つけ、それにリセット呼び出した場合
が、私はそれが重みとバイアスの全体研修を一掃するだろう心配していますだけでなく、ハウト
はここでトレーニングループコード
for iteration in range(1, 10):
for key in X_dict:
X = X_dict[key]
y = y_dict[key]
history=model.fit(X, y, batch_size=batch_size, callbacks=cbks, nb_epoch=1,verbose=0)
ですループの各ターンは、単一の市場からのデータを供給します。それでは、私は第1幕の大会をリセットしたいと思っています。
隠し状態をリセットしたいのはなぜですか?これは潜在的な機能の学習が行われる場所ですか? –