2017-10-26 8 views
0

私はTensorFlowでVGGネットワ​​ークを実装しており、すでに訓練されています。また、Amazon Web Services p2.xlargeインスタンス(Nvidia Tesla K80,12GB)をAWSマーケットプレイスからAmazon Linuxバージョン用ディープラーニングAMIをインストールしています。AWS p2.xlインスタンスでTensorFlowが遅い

ネットワークを使用しているとき、画像処理には約30秒かかります。これは、TITAN Xで使用されているのと同じネットワークに比べて長すぎます.1〜2秒かかりました。

この問題を解決する方法はありますか?

答えて

0

p3.2xlarge(Tesla V100 GPU)インスタンスの「NVIDIA Volta Deep Learning AMI」はどうですか?私が2017年10月27日に試したときのスポット価格は50セントでした。012MIAを無料で使用するには、APIキーを取得してください。

にサインアップしてください。

EC2/GPUの設定情報:https://aws.amazon.com/blogs/aws/new-amazon-ec2-instances-with-up-to-8-nvidia-tesla-v100-gpus-p3/

+0

しかし、またしても、このインスタンスはタイタンXとマシンよりも優れていることが想定ので、私はそれが別のインスタンスと同じになると思うが、私は把握することはできません問題はどこだ。 – plamba95

+0

私のアプリでは、あらかじめ訓練されたvgg19モデルを再利用しました。 Volta AMIを使用したp3.2xlargeでの1つの256x256カラーjpegの推論時間は100ミリ秒以下でした。 – Setogit

関連する問題