2016-12-06 8 views
1

私はinverse time decay of learning rateを使用すると、式はTensorFlow、inverse_time_decayには何がありますか?

decayed_learning_rate = learning_rate/(1 + decay_rate * t) 

であり、例えば

... 
global_step = tf.Variable(0, trainable=False) 
learning_rate = 0.1 
k = 0.5 
learning_rate = tf.train.inverse_time_decay(learning_rate, global_step, k) 

# Passing global_step to minimize() will increment it at each step. 
learning_step = (
    tf.train.GradientDescentOptimizer(learning_rate) 
    .minimize(...my loss..., global_step=global_step) 
) 

は、上記の例であり、kdecay_rateですが、tを設定する方法? tglobal_stepですか?

答えて

0

tはグローバルなステップです。グローバルステップは、各トレーニングステップが完了した後に1ずつインクリメントされる変数です。何らかの他のtを望むなら、あなたは "global_step"のようなテンソルを渡すことができます。