1
translate.pyは、入力言語の文章を固定長のvetorsに翻訳するエンコーディング/デコーダモデルを実装しています。記事のtranslate.py doesnt use embedding?の投稿と私自身のコードの調査から、文の埋め込みがembedding_attention_seq2seq/RNN/EmbeddingWrapper/embedding:0に格納されると思いました。しかし、これは私の入力ボキャブラリのサイズX rnnのレイヤーサイズに対応する形の変数です。私は文章のエンコーディングとして概念的にどのように解釈できるのか分かりません。私の理解の誤りはどこですか?TensorFlow - translate.pyに埋め込みを理解する
どのようにその変数に格納されている値を解釈しますか?問題は、その変数の価値をどのように得るかということではなく、その価値の意味です。 – dk1840
埋め込み変数には、サイズembedding_sizeのベクトルとしてボキャブラリの各単語を表すvocab_size x embedding_sizeというサイズの行列が含まれています。行列をtsv形式で保存すると、http://projector.tensorflow.org/で視覚化することができます。値は、どのように単語が互いに関連しているかを表します。私は物事を明確にしたいと思っています。 –