translate.pyは、入力言語の文章を固定長のvetorsに翻訳するエンコーディング/デコーダモデルを実装しています。記事のtranslate.py doesnt use embedding?の投稿と私自身のコードの調査から、文の埋め込みがembedding_attention_seq2seq/RNN/EmbeddingWrapper/embedding:0に格納されると思いました。しかし、
私はこのシステムを若干変更してこのchar-rnn.pyを実装しようとしています。 これは私の完全なコードです: from keras.models import Sequential
from keras.layers import Dense, Activation,TimeDistributedDense, Dropout
from keras.layers import LSTM
f
にRNNのパープレキシティを計算するためにどのように私は言葉RNNのパープレキシティを計算する方法Word RNN のテンソルの流れのRNNのimplmentationを実行していますよ。 for e in range(model.epoch_pointer.eval(), args.num_epochs):
sess.run(tf.assign(model.lr, args.lear