0
https://google.github.io/seq2seq/のコードを使用して、seq2seq NMT(ニューラルマシン翻訳)をトレーニングしていました。トレーニングプロセスを中断した後、再起動したプロセスは超低速になります(1.2ステップ/秒から0.07ステップ/秒)。他の誰かがこの経験を持っていますか?どうすればデバッグできますか?私は、おかげ...本当にあきらめたくない、数週間のためにこれを実行している!〜Tensorflow SEQ2SEQトレーニングが突然遅い
通常のトレーニングの最後の行、
INFO:tensorflow:loss = 0.585205, step = 830853 (79.477 sec)
INFO:tensorflow:global_step/sec: 1.24179
INFO:tensorflow:loss = 0.267574, step = 830953 (80.529 sec)
スーパースロートレーニングの最初の数行...
INFO:tensorflow:global_step/sec: 0.0746058
INFO:tensorflow:loss = 0.554718, step = 830854 (1340.379 sec)