特別な単語埋め込みでLSTMを構築したいと思いますが、これがどのように機能するかについていくつか質問があります。LSTM(入れ子式)内のTensorflowシーケンスからシーケンスへのLSTM
ご存じのように、LSTMによっては文字が操作されるものがあります。私は同じことをしたいと思います。単語に抽象化を入れて、LSTMを入れ子にして強固な埋め込みを学び、わずかな文字レベルのエラーに耐えるようにしたいと思います。
小さなLSTMが単語のすべての文字を展開すると、単語の埋め込みが作成されます。文中の各埋め込み語は、より高いレベルのLSTMへの入力として供給され、これは文字ではなく、時間ステップごとに語レベルで動作する。
質問: - それについて話したリサーチペーパーはもう見つかりません。私が何を話しているのか分かっているなら、私がしたいことに名前をつけたいと思います。 - 一部のTensorFlowオープンソースコードが既に存在しますか? - そうでない場合は、その実装方法について考えていますか?ニューラルネットワークの出力は扱いにくいかもしれません。出力ネストされたLSTMを持つ文字のトレーニングのために埋め込みを取り消す必要があるからです。全体を1つのユニットとして一度訓練する必要があります(ワークフロー:LSTMの文字、LSTMの単語、LSTMの文字)。
rnn_cell.MultiRNNCell
は、LSTMをネストするのではなく、互いの上に重ねると思います。
これ以外の埋め込みコード(インとアウト)を、メインのLSTM以外のオートエンコーダとしてトレーニングすることをお勧めしますか?