2017-11-24 8 views
3

私はAx^2 + Bx + CをA、B、Cが分かっている(ax + b)(cx + d) a、b、c、dの値。代数を解くためにテンソルフローを使うとき、すべての変数は訓練の後にナノになりました

import tensorflow as tf 
a = tf.Variable([.5]) 
b = tf.Variable([.5]) 
c = tf.Variable([.5]) 
d = tf.Variable([.5]) 
x = tf.placeholder(tf.float32) 
y = tf.placeholder(tf.float32) 
fn1 = 2*x**2+3*x+4 #A=2,B=3,C=4 
fn2 = (a*x+b)*(c*x+d) 
x_train = [1,2,3,4] 
y_train = [9,18,31,48] 
loss = tf.reduce_sum(tf.square(fn2-y)) 
optimizer = tf.train.GradientDescentOptimizer(0.01) 
train = optimizer.minimize(loss) 

init = tf.global_variables_initializer() 
sess = tf.Session() 
sess.run(init) 

for i in range(1000): 
    sess.run(train, {x:x_train, y:y_train}) 

print(sess.run([a,b,c,d])) 

結果は全て、B、CおよびDのためにナンを示す:ここ コードです。 これを修正する方法は?私は何か見落としてますか?手伝ってくれてありがとう。

答えて

1

あなたの費用関数は、0.01の学習率で収束していません。学習率を0.0001(またはそれ以下)に設定すると、コスト関数が収束し始めます。あなたがa * x ** 2 + b * x + cにごFN2を変更した場合

optimizer = tf.train.GradientDescentOptimizer(0.0001) 

また、あなたが斧^ 2 + Bxの+ Cを持っているものに近い解を得るでしょう。しかし、(ax + b)(cx + d)を使用すると、x = [1,2,3,4]という小さなトレーニングデータセットを満たす別の解を得ることができます。

もう一つの小さなヒントは、すべての変数に対して同じ値(あなたのケースでは0.5)を初期化しないことです。 -1.0〜1.0の間でランダムに初期化します。

+0

これは素晴らしいことですが、あなたが言ったように式と初期値を変更しました。損失は本当に小さくなりました。どうもありがとうございました。 – omg

関連する問題