KerasとTensorpackのような他のTFラッパーのトレーニングパフォーマンスに関する質問がありました。 a Q&A session中にTFラッパー:KerasとTensorpackのパフォーマンス
は、Kerasの作者はパッケージが無いパフォーマンスコストが付属して次のように述べている。モデルがあるので、
Kerasなしパフォーマンスコストで、TensorFlowでモデルを構築し、訓練する単純、迅速な方法を提供します同じTensorFlowエンジンによって実行されています。一方
しかし、それも小さなCNNで、2倍高速KerasよりだとTensorpack github主張:
Tensorpackトレーナーはほとんど常に速くfeed_dictベースのラッパーです。小さなCNNの例でも、トレーニングは同等のKerasコードより2倍速く実行されます。
だから私は次のように思っています:誰が正しいのでしょうか? トレーニングでは、2という係数が私にとって非常に重要です。
あなた自身で試しましたか? –
はい、常にKerasを使用しています(ただし、Tensorpackは使用していません)。私は数百GBのデータを持つ4Dデータセットと11x13x18x50の1つの「イメージ」を持っているので、パフォーマンスについて本当に心配しています。現在、私は単一ノードでTFバックエンドと4 GTX1080を使用しているKerasを使用しています(マルチノードは現在はうまくスケールされていません)。 – 0vbb