2016-11-02 2 views
0

私の同僚と私はSXM2 NVlinkなどで深い学習のために新しいサーバを買うことを検討しています。 そのpower8アーキテクチャは、ドッカー+深層学習フレームワークのテンソルフロー。 次のセットアップがうまくいくか、困難/不可能が予想される場合、誰かが経験したことがありますか?深いパワーで学ぶ8 sxm2 nvlink with ubuntu + p100

  • SXM2 Power8 - NVLINK
  • Oの4×P100のGPU:SLURMスケジューラを介してうまく管理Ubuntuの14.04/16.04裸 金属インストール
  • ディープラーニングフレームワーク:caffeeとトーチ、tensorflow(ユーザーカスタムビルド)

答えて

1

。それではここに結果があります。多分このハイパフォーマンスエリアに潜り込みたい人や、購入するアーキテクチャがわからない人を助けるかもしれません。

ユースケース: このユースケースは、既存のアーキテクチャ(SLURM)とクラウドサービス(主にx86のx86など)との統合です。したがって、私はnvidiaに話をし、彼らはx86上でnvlink(sxm2)の使用を推奨しました。 PCIeはgpu通信用の標準ソケットをカバーします。 SXM2はを透過的にテイクオーバーGPUグリッド通信します。これは、1つは、完全なPower8力を望んでいる場合は、ここで使用する場合は次のようになり

Power8(GPUはPCIeの上にも接続されている)x86用の配備は同じままながらのGPU上でのトレーニングが速く燃えるれるという利点を持っていますソケットからGPUまでの真のHPCレベル。これは展開の複雑さを必要とするよりもむしろ。 power8のブーストが必要な場合は、ユースケースレベル(ハイエンドのリサーチなど)を一度決定する必要があります。

のNvidiaは、より詳細に説明するものを、素敵なハイテクoverview paper紙を持っています。

1

残念ながら、我々はTensorFlowの電源アーキテクチャと多くの経験を持っていない、と私はコミュニティの人々のいずれかのレポートを見ていませんそれをうまく使っているので、問題を解決するためのトラブルシューティングが必要な場合があります。我々はそれが強くユースケースに依存していることを考え出し、上記のセットアップのため