2016-09-27 10 views
5

私は、ある繰り返しの後、ほとんどすべての私のパラメータ(コスト関数、重み、仮説関数など)が 'NaN'を出力するというこの問題があります。私のコードは、テンソルフローチュートリアルMNIST-Expert(https://www.tensorflow.org/versions/r0.9/tutorials/mnist/pros/index.html)に似ています。私はすでに解決策を探していましたが、学習率をほとんどゼロにしてゼロに設定しました。グラジエント降下の代わりにAdamOptimizerを使用し、最後の層の仮説関数にはシグモイド関数を使用し、numpy関数のみを使用しました。入力データに負の値とゼロの値があるので、二次コスト関数の代わりに対数クロスエントロピーを使用することはできません。結果は同じですが、私の入力データは土壌の応力とひずみから構成されています。NaNの結果はテンソルフローニューラルネットワーク

import tensorflow as tf 
import Datafiles3_pv_complete as soil 
import numpy as np 

m_training = int(18.0) 
m_cv = int(5.0) 
m_test = int(5.0) 
total_examples = 28 

" range for running " 
range_training = xrange(0,m_training) 
range_cv = xrange(m_training,(m_training+m_cv)) 
range_test = xrange((m_training+m_cv),total_examples) 

""" Using interactive Sessions""" 
sess = tf.InteractiveSession() 

""" creating input and output vectors """ 
x = tf.placeholder(tf.float32, shape=[None, 11]) 
y_true = tf.placeholder(tf.float32, shape=[None, 3]) 

""" Standard Deviation Calculation""" 
stdev = np.divide(2.0,np.sqrt(np.prod(x.get_shape().as_list()[1:]))) 

""" Weights and Biases """ 

def weights(shape): 
    initial = tf.truncated_normal(shape, stddev=stdev) 
    return tf.Variable(initial) 

def bias(shape): 
    initial = tf.truncated_normal(shape, stddev=1.0) 
    return tf.Variable(initial) 

""" Creating weights and biases for all layers """ 
theta1 = weights([11,7]) 
bias1 = bias([1,7]) 

theta2 = weights([7,7]) 
bias2 = bias([1,7]) 

"Last layer" 
theta3 = weights([7,3]) 
bias3 = bias([1,3]) 


""" Hidden layer input (Sum of weights, activation functions and bias) 
z = theta^T * activation + bias 
""" 
def Z_Layer(activation,theta,bias): 
    return tf.add(tf.matmul(activation,theta),bias) 

""" Creating the sigmoid function 
sigmoid = 1/(1 + exp(-z)) 
""" 
def Sigmoid(z): 
    return tf.div(tf.constant(1.0),tf.add(tf.constant(1.0), tf.exp(tf.neg(z)))) 

""" hypothesis functions - predicted output """  
' layer 1 - input layer ' 
hyp1 = x 
' layer 2 ' 
z2 = Z_Layer(hyp1, theta1, bias1) 
hyp2 = Sigmoid(z2) 
' layer 3 ' 
z3 = Z_Layer(hyp2, theta2, bias2) 
hyp3 = Sigmoid(z3) 
' layer 4 - output layer ' 
zL = Z_Layer(hyp3, theta3, bias3) 
hypL = tf.add(tf.add(tf.pow(zL,3), tf.pow(zL,2)), zL) 


""" Cost function """ 
cost_function = tf.mul(tf.div(0.5, m_training), tf.pow(tf.sub(hypL, y_true), 2)) 

#cross_entropy = -tf.reduce_sum(y_true*tf.log(hypL) + (1-y_true)*tf.log(1-hypL)) 

""" Gradient Descent """ 
train_step = tf.train.GradientDescentOptimizer(learning_rate=0.003).minimize(cost_function)  

""" Training and Evaluation  """ 

correct_prediction = tf.equal(tf.arg_max(hypL, 1), tf.arg_max(y_true, 1)) 

accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) 

sess.run(tf.initialize_all_variables()) 

keep_prob = tf.placeholder(tf.float32) 

""" Testing - Initialise lists """ 
hyp1_test = [] 
z2_test = [] 
hyp2_test = [] 
z3_test = [] 
hyp3_test = [] 
zL_test = [] 
hypL_test = [] 
cost_function_test =[] 
complete_error_test = [] 
theta1_test = [] 
theta2_test = [] 
theta3_test = [] 
bias1_test = [] 
bias2_test = [] 
bias3_test = [] 
""" ------------------------- """ 

complete_error_init = tf.abs(tf.reduce_mean(tf.sub(hypL,y_true),1)) 

training_error=[] 
for j in range_training: 
    feedj = {x: soil.input_scale[j], y_true: soil.output_scale[j] , keep_prob: 1.0} 

    """ ------------------------- """ 
    'Testing - adding to list' 
    z2_init = z2.eval(feed_dict=feedj) 
    z2_test.append(z2_init) 

    hyp2_init = hyp2.eval(feed_dict=feedj) 
    hyp2_test.append(hyp2_init) 

    z3_init = z3.eval(feed_dict=feedj) 
    z3_test.append(z3_init) 

    hyp3_init = hyp3.eval(feed_dict=feedj) 
    hyp3_test.append(hyp3_init) 

    zL_init = zL.eval(feed_dict=feedj) 
    zL_test.append(zL_init) 

    hypL_init = hypL.eval(feed_dict=feedj) 
    hypL_test.append(hypL_init) 

    cost_function_init = cost_function.eval(feed_dict=feedj) 
    cost_function_test.append(cost_function_init) 

    complete_error = complete_error_init.eval(feed_dict=feedj) 
    complete_error_test.append(complete_error) 
    print 'number iterations: %g, error (S1, S2, S3): %g, %g, %g' % (j, complete_error[0], complete_error[1], complete_error[2]) 

    theta1_init = theta1.eval() 
    theta1_test.append(theta1_init) 

    theta2_init = theta2.eval() 
    theta2_test.append(theta2_init) 

    theta3_init = theta3.eval() 
    theta3_test.append(theta3_init) 

    bias1_init = bias1.eval() 
    bias1_test.append(bias1_init) 

    bias2_init = bias2.eval() 
    bias2_test.append(bias2_init) 

    bias3_init = bias3.eval() 
    bias3_test.append(bias3_init) 
    """ ------------------------- """ 

    train_accuracy = accuracy.eval(feed_dict=feedj) 
    print("step %d, training accuracy %g" % (j, train_accuracy)) 
    train_step.run(feed_dict=feedj) 
    training_error.append(1 - train_accuracy) 

cv_error=[]  
for k in range_cv: 
feedk = {x: soil.input_scale[k], y_true: soil.output_scale[k] , keep_prob: 1.0} 
    cv_accuracy = accuracy.eval(feed_dict=feedk) 
    print("cross-validation accuracy %g" % cv_accuracy) 
    cv_error.append(1-cv_accuracy) 

for l in range_test: 
    print("test accuracy %g" % accuracy.eval(feed_dict={x: soil.input_matrixs[l], y_true: soil.output_matrixs[l], keep_prob: 1.0})) 

最後の週私はこの問題のユニットモデルで作業していましたが、同じ出力が発生しました。私は次に何を試すべきか分かりません。誰かが私を助けることを願っています。

編集:

私は再度詳細にいくつかのパラメータをチェックします。層3および層4(最後の層)の仮説関数(hyp)および活性化関数(z)は、各データ点について同じエントリー、すなわち1つの列の各行の同じ値を有する。

+0

入力にNaN値が含まれていないことを確認しましたか?入力にNaN値が含まれている場合'np.isnan(np.sum(input_array))'を試してみてください。それがnanを返すと、入力にNaNの値が含まれている可能性があります。 – Kashyap

+0

27のすべての例についてチェックしましたが、結果は常に 'False'でした。私はそれを入力データと出力データについてテストしました。 – DeniseLotti

+0

バイアスイニシャライザのstddevを小さな値に減らそうとします。 0.01である。時にはそれはそのような行動につながるかもしれません。 –

答えて

0

最後に、NaN値がなくなりました。解決策は、スケール私の入力と出力のデータです。結果(精度)はまだ良くありませんが、少なくともパラメータの実際の値が得られます。私は他の試み(おそらく他のいくつかの間違いがあったかもしれない)の前にフィーチャスケーリングを試み、それが私の問題にも役立たないと想定しました。

1

1e^-3は、あなたが記述した分類器では依然としてかなり高いです。 NaNは実際にはウェイトが無限に近づいていることを意味します。したがって、1e^-7付近のより低い学習率をさらに探求することをお勧めします。それが発散し続ける場合は、学習率に0.1を掛け、重みが有限値になるまで繰り返す。

+0

私はすでに学習率を変更しようとしました。私も0の学習率を使用しましたが、これはまだ私の問題を解決しません。 – DeniseLotti

+0

0は間違いなく動作しません。つまり、ウェイトの更新は効果がありません。非常に微量の学習率がうまくいかない場合は、約1e^-10で、あなたの初期化を無作為化しようとします。 – alvinwan

+0

私は非常に小さな学習率を1e-20まで試しました。私はあなたが「あなたの初期設定を無作為化する」という意味を理解していません。ランダムに私の重み(およびバイアス)を初期化し、入力配列と出力配列の異なる例の順序もランダムです。 – DeniseLotti