2017-06-09 17 views
0

私はテンソルフローの開始例をこのpageにしようとしています。私はcross_entropyに関してsthを印刷したいが、何も得ていない。 コードはhereから参照することもできます。テンソルフロー、ml初心者のためのmnistでの印刷方法

from tensorflow.examples.tutorials.mnist import input_data 
import tensorflow as tf 
import numpy as np 

mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) 

x = tf.placeholder(tf.float32, [None, 784]) 
y_ = tf.placeholder(tf.float32, [None, 10]) 
W = tf.Variable(tf.zeros([784, 10])) 
b = tf.Variable(tf.zeros([10])) 

y = tf.matmul(x, W) + b 
cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=y, labels=y_)) 
cross_entropy = tf.Print(cross_entropy, [cross_entropy], "###") 
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) 

sess = tf.InteractiveSession() 
tf.global_variables_initializer().run() 
for _ in range(1000): 
    batch_xs, batch_ys = mnist.train.next_batch(100) 
    sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys}) 

correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) 
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) 
print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels})) 

私は見つけることができない理由tf.Print、各ループで何も印刷しない、cross_entropyにバインドされています。

私はすでにtf.Print - > cross_entropy - > train_stepにバインドしてこのtrain_stepを実行していると思います。私の問題は何ですか?あなたは正しい

答えて

0

tf.Printは(文書を引用)されています

評価した印刷データの副作用を持つアイデンティティオペアンプ。

したがって、当然、あなたは何かがcross_entropyノード間に流れるcross_entropy毎回の値を見ることを期待しています。

問題は、アイデンティティノードではなく、実際のクロスエントロピーを最小化することです。したがって、実際には、cross_entropy変数は、別の変数を「指す」アイデンティティノードであり、効果的に評価されます。

これを解決するには、グラフ内のノードの評価順序を強制することができます。

最小化ステップは、値をロギングした後にのみ実行することができます。これは、あなたがこの方法でtf.control_dependenciesを使用することができます実行します。

from tensorflow.examples.tutorials.mnist import input_data 
import tensorflow as tf 
import numpy as np 

mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) 

x = tf.placeholder(tf.float32, [None, 784]) 
y_ = tf.placeholder(tf.float32, [None, 10]) 
W = tf.Variable(tf.zeros([784, 10])) 
b = tf.Variable(tf.zeros([10])) 

y = tf.matmul(x, W) + b 
cross_entropy = tf.reduce_mean(
    tf.nn.softmax_cross_entropy_with_logits(logits=y, labels=y_)) 

with tf.control_dependencies([tf.Print(cross_entropy, [cross_entropy], "###")]): 
    train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) 

sess = tf.InteractiveSession() 
tf.global_variables_initializer().run() 
for _ in range(1000): 
    batch_xs, batch_ys = mnist.train.next_batch(100) 
    sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys}) 

correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1)) 
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) 
print(
    sess.run(accuracy, feed_dict={x: mnist.test.images, 
            y_: mnist.test.labels})) 
+0

だから、理由はtensorflow評価プロセスが原因結合間違った変数に正しく実行されていないということでしょうか? –

+0

評価が正しく実行されているかどうかは完全にはわかりません。このスレッドをリンクしているGitHubに関する問題を開くことをお勧めします:多分TF開発者が理解でき、 'tf.control_dependencies'なしで' tf.Print'が動作しない理由を説明することができます。私の推測では、 'cross_entropy'は実際のノードではなく参照ノードになるので、参照には何も流れませんが、テンソルフローの仕組みを理解しているだけです。問題を開いてここにリンクすると、私も興味があります(おそらくバグです)。 – nessuno

関連する問題