から来るのかどこTensorflow LSTMの例はここにあります:Tensorflow:RNNの例では、単語の埋め込みが
https://github.com/tensorflow/models/blob/master/tutorials/rnn/ptb/ptb_word_lm.py
私は言葉の埋め込みはどこから来た理解しようとしています。
with tf.device("/cpu:0"):
embedding = tf.get_variable(
"embedding", [vocab_size, size], dtype=data_type())
inputs = tf.nn.embedding_lookup(embedding, input_.input_data)
説明したように、私はこの例では、たとえば、(embedding
変数が保持すべきかの感覚を持っている:
参照は、このコードがあります。https://www.tensorflow.org/tutorials/word2vecをしかし得るためにいくつかの魔法が存在しなければなりません
プロジェクトコードでは何も表示されません。単純なワンホットコード化ベクトルを生成するものはありません。単語を置き換えるだけですその整数IDを使用して、リーダーコード(https://github.com/tensorflow/models/blob/master/tutorials/rnn/ptb/reader.py)でデータを再形成します。
私は何が欠けていますか?これが大変明白なものであれば、本当にすみません。
ええ、正確に訓練されているのはどこですか?.. – oopcode
バックプロパゲーショングラディエントを見つけて更新する作業を行います。 – hars