2017-05-12 13 views
0

から来るのかどこTensorflow LSTMの例はここにあります:Tensorflow:RNNの例では、単語の埋め込みが

https://github.com/tensorflow/models/blob/master/tutorials/rnn/ptb/ptb_word_lm.py

私は言葉の埋め込みはどこから来た理解しようとしています。

with tf.device("/cpu:0"): 
    embedding = tf.get_variable(
     "embedding", [vocab_size, size], dtype=data_type()) 
    inputs = tf.nn.embedding_lookup(embedding, input_.input_data) 

説明したように、私はこの例では、たとえば、(embedding変数が保持すべきかの感覚を持っている:

参照は、このコードがあります。https://www.tensorflow.org/tutorials/word2vecをしかし得るためにいくつかの魔法が存在しなければなりません

プロジェクトコードでは何も表示されません。単純なワンホットコード化ベクトルを生成するものはありません。単語を置き換えるだけですその整数IDを使用して、リーダーコード(https://github.com/tensorflow/models/blob/master/tutorials/rnn/ptb/reader.py)でデータを再形成します。

私は何が欠けていますか?これが大変明白なものであれば、本当にすみません。

答えて

1

私は全くわからないが、これは私が理解するものである:

私はトレーニング可能テンソルを埋め込むと思います。 tf.get_variable()は、これらのパラメータを持つ既存の変数を取得します。存在しない場合は、新しい変数を作成します。

初期化子がなしの場合、glorot_uniform_initializerが使用されます。

ボキャブサイズに基づいて、大きな埋め込み行列を初期化し、ボキャブラリに最適な埋め込み値を見つけることができます。

+0

ええ、正確に訓練されているのはどこですか?.. – oopcode

+0

バックプロパゲーショングラディエントを見つけて更新する作業を行います。 – hars

関連する問題