私はtf.local_variables_initializerによってちょっと混乱しています。私は、彼らはただTensorFlow:ローカル変数を初期化するとき
init_op = tf.group(
tf.global_variables_initializer(),
tf.local_variables_initializer()
)
などの呼び出しに厚く塗る他の人々のコードで表示さ
だけで、すべてのTFプログラムで呼び出すことinit_opべきか?これはプログラミングの "怠惰な" TFスタイルですか?一例として、
として指定input_string_producer
のようなキュー考える:
tf.input_string_producer(file_list,num_epochs=None)
がtf.local_variables_initializer()
を必要としないが、エポック
tf.input_string_producer(file_list,num_epochs=1)
の実際の数を指定する場合は、実際にを行いますtf.local_variables_initializer()
が実行されている必要があります。
このような「隠された」ローカル変数を初期化しない場合、および/またはしないようにするにはどうすればよいですか? FIFOQueue
自分自身の変数であるか、あるいはqueue.initializerのようなものを持っているべきではありませんか?
ここでベストプラクティスは何ですか?ローカルで使うには、 'init_op'を呼び出してそれを忘れてしまいますか? 「隠された」ローカルバールについて知るには? –
はい、ベストプラクティスはあなたが投稿したコードのように 'init_op'を使うことです –