1
TensorflowのPTB言語モデルにおける評価のための設定を検討している間、私はeval_configに評価するために、この設定によって当惑しています
:理由
eval_config = get_config()
eval_config.batch_size = 1
eval_config.num_steps = 1
https://github.com/tensorflow/models/blob/master/tutorials/rnn/ptb/ptb_word_lm.py
で評価の間、文脈語のウィンドウ(num_stepsサイズまで可能かもしれません)を使用して、別のターゲットテンソルに格納された次の単語を予測します。 num_stepsが1に設定されている場合、先行する単語のみが予測に使用されることを意味しません(コンテキストウィンドウサイズ> 1を無視します)。また、評価中、batch_sizeも1に設定されています。評価をスピーチするために、より大きなバッチをネットワークに供給することは理にかなっていませんか?