テンソルフローを実動サーバーにデプロイしたいと思います。約200人の同時ユーザーがいると思います。私は、パーサーと私自身のニューラルネットワーク深い学習モデルのいくつかを使用します。私はピークメモリと同じもののCPU使用量を知りたいです。テンソルフローの要件
あなたのお手伝いをお待ちしております。簡単な(しかし非常に変数)を推測しようと
テンソルフローを実動サーバーにデプロイしたいと思います。約200人の同時ユーザーがいると思います。私は、パーサーと私自身のニューラルネットワーク深い学習モデルのいくつかを使用します。私はピークメモリと同じもののCPU使用量を知りたいです。テンソルフローの要件
あなたのお手伝いをお待ちしております。簡単な(しかし非常に変数)を推測しようと
:
をあなたが深い学習の話なら、私はあなたには、いくつかのCNN、おそらくのRNNを含め、3層以上の少なくとも話している推測。
単純な2Dまたは3D入力を使用していて複雑なアーキテクチャを使用している場合は、ボトルネックがCPU上にあると言うことができるため、GPUでアルゴリズムを実装する必要があります。
また、任意の数のクライアントに対してスケーリングを準備する必要があるため、スケーリングの仕組みが最初から有効になります。
また、ワークロードの処理方法や、リアルタイムでの処理が必要なのか、バッチキューが必要なのかを知る必要がありますか?これにより、要件が大幅に変更されます。
これやその他の詳細を把握できたら、見積もりを修正することができます。
よろしくお願いいたします。おそらく、3つの因子の中でグラフ
とキューサイズのため
バッチサイズは、グラフのメモリが最も大きな影響を与えます。グラフサイズxバッチサイズ
CPUについてグラフ用にGPUを使用することをお勧めします。いくつかのテストを行い、グラフと選択したバッチサイズで行うことができる1秒あたりの推論数を数えます。 Tensorflowがうまく実装されていれば、並行性が非常にうまく処理され、バインドされるのはグラフの速度になります
TensorFlowの要件は、実行している特定のモデルによってほぼ完全に決まります。これらのモデルの詳細がなければ、要件を推測することは不可能です。 – mrry