2017-03-24 9 views
0

訓練を受けたモデルの新しいクラスを追加するのは混乱しています。これまでに訓練されたチェックポイントを復元し、m * C + 1のサイズの行列を作成しました。長さC + 1のベクトルを作成し、既存の重みからこれらの最初のC行/要素を初期化し、Optimizer.minimize()でFCレイヤーだけをトレーニングすることによって前のレイヤーをフリーズします。私は、コードを実行したときしかし、私はこのエラーました:事前訓練モデルの新しい出力を追加

Traceback (most recent call last): 
File "/home/tensorflow/tensorflow/models/image/mnist/new_dataset/Nets.py", line 482, in <module> 
new_op_w = optimizer_new.minimize(loss, var_list = resize_var_w) 
File "/home/tensorflow/local/lib/python2.7/site-packages/tensorflow/python/training/optimizer.py", line 279, in minimize 
grad_loss=grad_loss) 
File "/home/tensorflow/local/lib/python2.7/site-packages/tensorflow/python/training/optimizer.py", line 337, in compute_gradients 
processors = [_get_processor(v) for v in var_list] 
File "/home/tensorflow/local/lib/python2.7/site-packages/tensorflow/python/framework/ops.py", line 502, in __iter__ 
raise TypeError("'Tensor' object is not iterable.") 
TypeError: 'Tensor' object is not iterable. 

をし、それがコードです:

with tf.Session(graph=graph) as sess: 
    if os.path.isfile(ckpt): 
     aver.restore(sess, 'path_to_checkpoint.ckpt') 
     w_b_new = { 

     'weight_4': tf.Variable(tf.random_normal([num_hidden, 1], stddev=0.1), name = 'weight_4'), 
     'bias_4' : tf.Variable(tf.constant(1.0, shape=[1]), name = 'bias_4'),} 
     change_1 = tf.unstack(w_b_not['weight_4']) 
     change_2 = tf.unstack(w_b_not['bias_4']) 
     change_3 = tf.unstack(w_b_new['weight_4']) 
     change_4 = tf.unstack(w_b_new['bias_4']) 
     changestep1 = [] 
     for i in range(len(change_1)): 
     changestep1.append(tf.unstack(change_1[i]))   
     changestep3 = [] 
     for i in range(len(change_3)): 
     changestep3.append(tf.unstack(change_3[i])) 
     for j in range(len(changestep3[i])): 
      changestep1[i].append(changestep3[i][j]) 

     changestep1[i] = tf.stack(changestep1[i]) 
     final1 = tf.stack(changestep1) 
     resize_var_w = tf.assign(w_b_not['weight_4'], final1, validate_shape=False) 
     final2 = tf.concat([w_b_not['bias_4'] , w_b_new['bias_4']], axis=0) 
     resize_var = tf.assign(w_b_not['bias_4'], final2, validate_shape=False) 

     optimizer_new = tf.train.GradientDescentOptimizer(0.01) 
     new_op_w = optimizer_new.minimize(loss, var_list = resize_var_w) 
     new_op_b = optimizer_new.minimize(loss, var_list = resize_var)  
     for step in range(num_steps,num_steps + num_train_steps): 
      offset = (step * batch_size) % (train_labels.shape[0] - batch_size)  
      batch_data = train_dataset[offset:(offset + batch_size), :, :, :]  
      batch_labels = train_labels[offset:(offset + batch_size), :] 
      feed_dict = {tf_train_dataset : batch_data, tf_train_labels : batch_labels , keep_prob:0.5}   
      _,_, l, predictions = sess.run([new_op_w,new_op_b, loss, train_prediction ], feed_dict=feed_dict) 
      if (step % 50 == 0): 
      print('%d\t%f\t%.1f%%\t%.1f%%' % (step, l, accuracy(predictions, batch_labels), accuracy(valid_prediction.eval(), valid_labels)))  
     print('Test accuracy: %.1f%%' % accuracy(test_prediction.eval() , test_labels)) 

     save_path_w_b = saver.save(sess, "path_checkpoint.ckpt") 
     print("Model saved in file: %s" % save_path_w_b) 

答えて

0

GradientDescentOptimizerのminimize method、「var_list」のTensorFlowドキュメントによると、可変オブジェクトのリストでなければなりません。あなたのコードによれば、resize_var_wは単一のテンソルです。

EDIT は、具体的には:

あなたはオプティマイザvar_listを与える場合は、名前が示すとおり、これは変数のリストでなければなりません。バックプロンプト中、オプティマイザはループしてvar_listとなり、グラフ内のすべての学習可能な変数とは対照的に、リスト内の変数のみを更新します。単一の変数は反復可能ではありません。

あなたは、単一のテンソルを更新したい場合は、単純に試すことができます。

resize_var_w = [tf.assign(w_b_not['weight_4'], final1, validate_shape=False)] 

を私がテストしていないが、動作するはずです。

+0

はい、私はresize_var_wに新しい変数を割り当てました –

+0

スクリプトをデバッグし、 'type(resize_var_w)'を表示してください。 TensorFlowテンソル変数またはPythonリストを出力しますか? – vega

+0

これは[assign doc](https://www.tensorflow.org/api_docs/python/tf/assign)に従ってresize_var_w

関連する問題