2017-01-12 5 views
1

translate.pyは、入力言語の文章を固定長のvetorsに翻訳するエンコーディング/デコーダモデルを実装しています。記事のtranslate.py doesnt use embedding?の投稿と私自身のコードの調査から、文の埋め込みがembedding_attention_seq2seq/RNN/EmbeddingWrapper/embedding:0に格納されると思いました。しかし、これは私の入力ボキャブラリのサイズX rnnのレイヤーサイズに対応する形の変数です。私は文章のエンコーディングとして概念的にどのように解釈できるのか分かりません。私の理解の誤りはどこですか?TensorFlow - translate.pyに埋め込みを理解する

答えて

0

seq2seq/embedding_attention_seq2seq/RNN/EmbeddingWrapper /埋め込むという名前の埋め込み層のではない:0

あなたが持つすべての変数を表示することができますembedding_attention_seq2seq()関数で

for var in tf.trainable_variables(): 
    print var.name 

定義

+0

どのようにその変数に格納されている値を解釈しますか?問題は、その変数の価値をどのように得るかということではなく、その価値の意味です。 – dk1840

+0

埋め込み変数には、サイズembedding_sizeのベクトルとしてボキャブラリの各単語を表すvocab_size x embedding_sizeというサイズの行列が含まれています。行列をtsv形式で保存すると、http://projector.tensorflow.org/で視覚化することができます。値は、どのように単語が互いに関連しているかを表します。私は物事を明確にしたいと思っています。 –

関連する問題