TFのMKLビルドを使用する場合、スレッドモデルはPthreadsではなくOpenMPになります。優れたCPU性能を得るには、スレッド数とその親和性を制御することが重要です。一つは、いくつかのケースでは、以下のような何かを行うことができます。Tensorflowでseesion構成のinter_op_parallelism_threadsおよびintra_op_parallelism_threadsを設定する方法
はconfig = tf.ConfigProto(inter_op_parallelism_threads=FLAGS.inter_op,intra_op_parallelism_threads=FLAGS.intra_op)
sess = tf.Session(config=config)
しかし、このメカニズムは
PTB/tensorflow/tensorflow /モデル/チュートリアル/ RNN/PTB/RNNチュートリアルアプリで動作していないようptb_word_lm.py私が定義する
sv = tf.train.Supervisor(logdir=FLAGS.save_path)
を使用して考えて
セッションは、その呼び出しに失敗した場合、 を追加します。
inter_op_parallelism_threads=FLAGS.inter_op,intra_op_parallelism_threads=FLAGS.intra_op
一般にどのようにこれらのフラグを設定できますか?