2017-07-21 10 views
0

TFのMKLビルドを使用する場合、スレッドモデルはPthreadsではなくOpenMPになります。優れたCPU性能を得るには、スレッド数とその親和性を制御することが重要です。一つは、いくつかのケースでは、以下のような何かを行うことができます。Tensorflowでseesion構成のinter_op_parallelism_threadsおよびintra_op_parallelism_threadsを設定する方法

config = tf.ConfigProto(inter_op_parallelism_threads=FLAGS.inter_op,intra_op_parallelism_threads=FLAGS.intra_op) 
sess = tf.Session(config=config) 

しかし、このメカニズムは

PTB/tensorflow/tensorflow /モデル/チュートリアル/ RNN/PTB/RNNチュートリアルアプリで動作していないようptb_word_lm.py私が定義する

sv = tf.train.Supervisor(logdir=FLAGS.save_path) 

を使用して考えて

セッションは、その呼び出しに失敗した場合、 を追加します。

inter_op_parallelism_threads=FLAGS.inter_op,intra_op_parallelism_threads=FLAGS.intra_op 

一般にどのようにこれらのフラグを設定できますか?

答えて

0

ptb_word_lm.py用溶液は

のSES = tf.Session(設定= configの

コンフィグ= tf.ConfigProto(inter_op_parallelism_threads = FLAGS.inter_op、intra_op_parallelism_threads = FLAGS.intra_op)を追加すると思われます)

ptb_readerを呼び出す前にセッションenvを設定してください。 (一部のOMP * env変数とともに)

関連する問題