2017-10-20 6 views
0

Pytorchで複数のメモリセルブロックを持つLSTMを実装しようとしています - 複数のLSTMユニット、つまりLSTMユニットはメモリブロックとそのゲートのセットです - 層ごとですが、基底クラスtorch.nn.LSTMPytorchのメモリブロックごとに複数のセルを持つLSTMレイヤを実装する方法は?

lstm = torch.nn.LSTM(input_size, hidden_size, num_layers) 

(Pytorchのドキュメントから):層ごとにLSTM部を有する多層LSTM

  • input_size
  • hidden_sizeが隠さSTで、ネットワークの入力寸法であります各層(すなわち、すべての層の寸法)、
  • num_layerがネットワーク上から

すると、の層の数であり、各LSTMユニット(各LSTMユニットのセルの状態は、したがってスカラーである)正確に一つのセルを有しますなぜなら、各層について、セル状態の次元は、隠れ状態の次元(すなわち、hidden_size)に対応するからである。 Hochreiterとシュミット によって提案元LSTMモデル[1997]におけるしかしながら

、各LSTMブロック/ユニットができるが、いくつかの細胞を含む: LSTM Network [Hochreiter, 1997]

はそうするが方法はありますか?

答えて

0

私の理解では、2つのLSTM-Cellsはいつものように接続されています。この論文で、図2の説明は、次の言葉:

...(90度反時計方向によって図1を回転させることにより、それは図2の対応する部分と一致することに注意してください)

図2のグラフはおそらく解釈が難しいですが、hidden_​​layerとその状態を入力したLSTMでなければなりません。

関連する問題