2

1秒と0の2048長のベクトルを取り入れたシーケンスからシーケンスへのモデルを構築しようとしています(例:1,0,1,0,0,1 、0,0,0,1、...、1])を入力し、それを(可変長)1-20の長い文字(例:GBNMIRN、ILCEQZG、またはFPSRABBRF)の既知の出力に変換します。ベクトルから文字シーケンスへの変換のためのLSTM

私の目標は、1秒と0の新しい2048長のベクトルを取り込み、出力シーケンスがどのように見えるかを予測するモデルを作成することです。

thisthisのようないくつかのgithubリポジトリを見てきました。

しかし、私は自分の問題でそれを実装する方法がわかりません。これに似た何かのプロジェクトがありますか?seq2seqモデルやLSTMを使ってこれを実装するにはどうしたらいいですか? (Pythonの実装)

私はkerasライブラリをPythonで使用しています。

+0

あなたはどの言語で試しましたか? – Yunnosch

+0

入力文字列をどのようにエンコード/正規化していますか? –

+0

私のバイナリベクトルをasciiに変換して文字列を正規化することは可能でしょうか? – rajkarthikkumar

答えて

2

あなたの入力はバイナリコードなので変わっています。私はモデルがうまくいくかどうか分からない。

まず境界線を示す入力と出力の開始記号と終了記号を追加する必要があります。次に、隠れた状態をどのように使用するかを含む各時間ステップの地域モジュールを設計する。単純なGRU/LSTMネットワークを以下のように試すことができます。詳細について

enter image description here

、あなたがCOU、エンコーダまた

enter image description here

デコーダ

enter image description here

を試みることができますアシストメカニズム in paper Neural Machine Translation by Jointly Learning to Align and Translateをご覧ください。その構造は以下の通りです。詳細

enter image description here

については

enter image description here

あなたがKerasを使用しているが、私はそれは簡単で理解しやすいようPyTorchコードを読み取るために参考になると思います。 PyTorch tutorial

関連する問題