TensorFlowでデータセットを訓練する回帰モデルを構築しようとしました。 W1 * x^2 + W2 * x + bのとき、それはナノを示す。 W2 * x + bのとき、数値を出力することができます。なぜW1 = 0を見つけることができないのですか?モデルビルドロジックに何か間違いはありますか?GradientDescentOptimizerでゼロの重みを見つけることができません
import tensorflow as tf
import csv
import re
import datetime
import numpy
import matplotlib.pyplot as plt
# Parameters
learning_rate = 0.01
training_epochs = 2000
# Training Data
data_X = [ 0., 2., 5., 6., 7., 8., 9., 12., 13., 14.]
data_Y = [ 2568.300049, 2540.100098, 2552.399902, 2583.899902, 2607.100098,
2603.300049, 2561.699951, 2614.899902, 2590.800049, 2578.199951]
train_X = numpy.asarray(data_X)
train_Y = numpy.asarray(data_Y)
n_samples = train_X.shape[0]
# Model parameters
rng = numpy.random
W1 = tf.Variable([rng.randn()], dtype=tf.float32, name="weight1")
# OK when W1 = tf.constant(0.)
W2 = tf.Variable([rng.randn()], dtype=tf.float32, name="weight2")
b = tf.Variable([rng.randn()], dtype=tf.float32, name="bias")
# Model input and output
x = tf.placeholder(tf.float32)
y = tf.placeholder(tf.float32)
linear_model = W1*tf.square(x) + W2*x + b
# loss
loss = tf.reduce_sum(tf.square(linear_model - y))/(2*n_samples)
# optimizer
optimizer = tf.train.GradientDescentOptimizer(learning_rate)
train = optimizer.minimize(loss)
# training loop
init = tf.global_variables_initializer()
# Start training
with tf.Session() as sess:
sess.run(init) # reset values to wrong
for i in range(training_epochs):
sess.run(train, {x: train_X, y: train_Y})
# evaluate training accuracy
curr_W1, curr_W2, curr_b, curr_loss = sess.run([W1, W2, b, loss], {x: train_X, y: train_Y})
print("W1: %s W2: %s b: %s loss: %s"%(curr_W1, curr_W2, curr_b, curr_loss))
# Graphic display
plt.plot(train_X, train_Y, 'ro', label='Original data')
plt.plot(train_X, sess.run(W1) * numpy.square(train_X) + sess.run(W2) * train_X + sess.run(b), label='Fitted line')
plt.legend()
plt.show()
ご返信ありがとうございます。ソリューションは機能しますが、実行には時間がかかります。 –