2016-12-30 3 views
0

現在、私はTheanoを機械学習に使用しています。今はTorchを試してみたかったのです。 TheanoでTorch Machine Learning FrameworkでのGPU使用量の設定

GPUのメモリ使用量のフラグを設定するオプションがあります:

os.environ["THEANO_FLAGS"] = "mode=FAST_RUN, device=gpu,floatX=float32,lib.cnmem=0.9"

のでTheanoは90%ここで、GPUの設定容量を使用しています。 Torchでは、同様のネットワークでは約30%のGPU負荷が使用されます。

Theanoに類似したTorchのGPU負荷を高く設定する方法はありますか?

答えて

0

Torchは、標準アロケータに基づいて必要なだけ多くのGPUメモリを使用します。

トーキョーの使用量は、テーラーの例のようにあらかじめ指定する必要はありません。

+0

ああありがとう!これは、ネットワーク使用量がネットワークサイズとともに自動的に増加する理由を説明しています。 –

関連する問題