0

現在、私はTensorFlowの初心者です。私はMNISTを使ってモデルを訓練しましたが、数字で写真を作ったので、精度をテストしたいと思っています。ディレマとMNISTのTensorFlowを使った予測

x = tf.placeholder(tf.float32, shape=[None, 784]) 
y_ = tf.placeholder(tf.float32, shape=[None, 10]) 
sess = tf.InteractiveSession() 
def weight_variable(shape): 
initial = tf.truncated_normal(shape, stddev=0.1) 
return tf.Variable(initial) 

def bias_variable(shape): 
    initial = tf.constant(0.1, shape=shape) 
    return tf.Variable(initial) 

#stride 1 and 0 padding 
def conv2d(x, W): 
    return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME') 

#pooling over 2x2 
def max_pool_2x2(x): 
    return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], 
        strides=[1, 2, 2, 1], padding='SAME') 

W_conv1 = weight_variable([5, 5, 1, 32]) 
b_conv1 = bias_variable([32]) 
x_image = tf.reshape(x, [-1,28,28,1]) 
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1) 
h_pool1 = max_pool_2x2(h_conv1) 
# Second Layer 
W_conv2 = weight_variable([5, 5, 32, 64]) 
b_conv2 = bias_variable([64]) 
h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2) 
h_pool2 = max_pool_2x2(h_conv2) 
#Fully connected layer 
W_fc1 = weight_variable([7 * 7 * 64, 1024]) 
b_fc1 = bias_variable([1024]) 
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64]) 
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1) 
keep_prob = tf.placeholder(tf.float32) 
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob) 
#Readout layer 
W_fc2 = weight_variable([1024, 10]) 
b_fc2 = bias_variable([10]) 

y_conv = tf.matmul(h_fc1_drop, W_fc2) + b_fc2 

cross_entropy = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv)) 
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) 
correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(y_,1)) 
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) 
sess.run(tf.global_variables_initializer()) 
for i in range(200): 
    batch = mnist.train.next_batch(50) 
    if i%100 == 0: 
     train_accuracy = accuracy.eval(feed_dict={ 
     x:batch[0], y_: batch[1], keep_prob: 1.0}) 
     print("step %d, training accuracy %g"%(i, train_accuracy)) 
    train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5}) 

# Here is my custom dataset 

custom_data=GetDataset() 

print sess.run(y_conv,feed_dict={x: custom_data}) 

それは私のカスタムデータで予測を行うための右の構文はありません:私は、私はこれは私のモデルであり、どのようなものTensorFlowで を作業しているの構文または理解していると思いますか?私はここに何かを見逃している?私のデータが設定されMNISTから1と同じ形式であるが、私は予測を行う方法については、正しい構文を見つけることができます任意の助け

print sess.run(y_conv,feed_dict={x: custom_data}) 

おかげでたくさん!

答えて

0

y_convは、あなたが推奨する必要があるものを提供します。おそらく、テンソルでデータが取る形式を理解していないだけです。

cross_entropy = tf.reduce_mean(
    tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv)) 
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) 

メモsoftmax_cross_encropy_with_logitsメソッドにy_convを渡す:あなたのコードで

あなたは損失関数とオプティマイザを持っています。この時点のy_convは、スケーリングされていない数字です。負の値は負のクラスを表し、正の値は正のクラスを表します。

softmaxは、これらをすべての出力の確率分布に変換します。特に、すべての出力を[0,1]の範囲に変換します。クロスエントロピーは誤差を計算する(クロスエントロピーは[0,1]の範囲の値をとる)。

それはあなたがしてソフトマックスを使用している場合は、単純に、実際に予測を計算し、別のテンソルを作成するのが一般的です:あなたのラベルを超える予測確率分布を与えるだろう

prediction = tf.softmax(y_conv) 

sess.runステップでテンソルをリクエストするだけです。

最も可能性が高いクラスを気にするだけなら、y_convの値の最大値を取ることができます。また、この文が真である場合は、確率分布ではない結果を生成するために若干調整されたtf.nn.sigmoid_cross_entropy_with_logitsを試してみるとよいでしょう(単一クラス予測ではやや優れていて、複数クラス予測では必須です)。

+0

こんにちはDavid、すばやく明示的な回答をいただきありがとうございます。残念なことに、これはうまくいかないようです。コード内に次の行を追加しました。コード内のsess.run行の前に "prediction = tf.nn.softmax(y_conv)"と "print_dict = {x:mnist.test.images ")" "予測を印刷しようとしているが、エラーが発生する:" InvalidArgumentError(上記のトレースバックを参照):dtype floatでプレースホルダテンソル 'Placeholder_40'の値を入力する必要があります \t [[Node:Placeholder_40 = Placeholder [dtype = DT_FLOAT、shape = []、_device = "/ job:localhost/replica:0/task:0/cpu:0"]()]] " – Vlad

+0

これは別の問題です。データを渡すためのプレースホルダがあります。あなたはそれにデータを与えていません。エラーメッセージが正しい場所にあなたを指し示すように、名前をまずあなたのプレースホルダに付けます。おそらくあなたのラベルはどこかで使用されているでしょう。リクエストしたOPが友人でない場合は、プレースホルダを入力する必要はありませんが、気付かなかった依存関係を持つことは簡単です。 –

+0

エラーが見つかりました。デビッドありがとう – Vlad

関連する問題