RNNの作業中に奇妙な問題が発生しました。私はTensorFlow RNN Tutorialに従っていて、R2RT's Blog Post: Recurrent Neural Networks in Tensorflow Iから非常にインスパイアされた自分の(より単純な)実装を試しています。tf.train.range_input_producer(epoch_size、shuffle = True)は終了せず、CPU/GPU負荷を誘発しません。
デバッグ後、問題がranger_input_producer
から来てtensorflow.models.rnn.ptb.reader.py(行115)にあることを確認しました。
import tensorflow as tf
epoch_size = 20
i = tf.train.range_input_producer(epoch_size, shuffle=False).dequeue()
どちらが何ptb_producer
(epoch_size
ための変数値を持ちます)。 ではあるとして、私もCPUどんなsession.run(...)
を呼んでも使用していない(終了していない、このコードことが判明した。私は、キューがsuggested by Daving Wongとして何かを待っていることを推測する。
任意の手がかり? Thxを
をpltrdy
さまざまな理由から、私はキューの代わりにイテレータを使用しました(tensorflow 0.11 ptb_word_lmの実装のように) まだありません。私はあなたが正しいと思う、私は "手作業"に関連するものを読むようにキューなどを開始するので、私はこのanwserを検証しています。 – pltrdy