Tensorflowを使用しようとしています。ここには非常に単純なコードがあります。tf.subとテンソルフローの動作をマイナスしたことの違いは何ですか?
train = tf.placeholder(tf.float32, [1], name="train")
W1 = tf.Variable(tf.truncated_normal([1], stddev=0.1), name="W1")
loss = tf.pow(tf.sub(train, W1), 2)
step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
最適化部分(4行目)を無視してください。これは浮動小数点をとり、W1を訓練して差の二乗を増加させる。
私の質問は簡単です。私は「ちょうどマイナス代わり tf.subの符号を使用する場合、以下のように、異なる何であるか?それは間違った結果を引き起こすのでしょうか?
loss = tf.pow(train-W1, 2)
私はそれを交換すると、結果は同じに見えます。それらが同じである場合?、なぜ我々は「tf.add/tf.sub」ものを使用する必要があります内蔵のバック伝播計算
にのみによって行うことができるもの