1
私はいくつかのエポックのモデルを訓練し、さらにエポックを再トレーニングしたいと思った。 Adamオプティマイザはどのように動作しますか? t = 0から時間を初期化するか、最後のタイムステップを保存しますか?tensorboardにadam optimizerメトリックを追加する方法は?
a)tensorflowのドキュメントには、次の計算が示されています。彼らはテンターボードにこれらのメトリックを追加することができますか?
t <- t + 1
lr_t <- learning_rate * sqrt(1 - beta2^t)/(1 - beta1^t)
m_t <- beta1 * m_{t-1} + (1 - beta1) * g
v_t <- beta2 * v_{t-1} + (1 - beta2) * g * g
variable <- variable - lr_t * m_t/(sqrt(v_t) + epsilon)
長い時間question1とquestion2以来、いくつかの質問には答えはありません。
最後のチェックポイントからモデルを再トレーニングすると、実際にエラー率に問題が発生しています。この場合、Adamオプティマイザで正確に何が起こっているのかわかりませんでしたか?
ありがとうございました。私はこれを確認し、あなたに知らせます。テンソルボードに時間、beta1、beta2を追加する方法はありますか? –
そして、リンクに示されているようにtrain_stepを印刷すると、sess.runを使って提供されました。私はすべての反復に対してNoneを取得します。私が作っている間違いはありますか? –