私はテンソルの流れに新しいですし、私が使用する2種類の方法を参照してくださいループGradientDescentOptimiser
:私は両方をテストしTensorflow学習の違いは
sess.run(train_op, feed_dict={X: trX, Y: trY})
私は統合されたループのこの種も参照
for (x, y) in zip(trX, trY):
sess.run(train_op, feed_dict={X: x, Y: y})
わずかに異なる結果が得られます。当分の間、私は簡単な線形回帰で自分自身を鍛えますが、それはANN
に影響を与えるかもしれません。なぜ違いがあり、どちらがニューラルネットワークの最良のコードですか?
こんにちは、JLBさん、第2のケースについてもっと詳しいコードを教えてください。 train_op、変数X、Yとは何ですか? – Corentin
確かに、ここでは、コスト、gradientDescentの定義を持つより多くのコードがあります。 唯一の違いは、実際には上で述べた推定のループです。 コスト= tf.square(Y - y_model)#使用二乗誤差コスト関数の train_op = tf.train.GradientDescentOptimizer(0.001).minimize(コスト) var_grad = tf.gradients(コスト、W) TFを有します。セッション()をsess: tf.initialize_all_variables()。run() sess.run(train_op、feed_dict = {X:trX、Y:trY})範囲内のiについて – JLB
おそらく後者が必要です - 実行を駆動するテンソルフローを取得します。 – drpng