nvidia

    2

    1答えて

    私のコードの処理時間とgpuの有無を比較したいと思います。ケラのバックエンドはTensorflowです。したがって、GPUは自動的に使用されます。私は比較のためにkeras/examples/mnist_mlp.pyのモデルを使用します。 以下のように処理時間を確認しました。次に、GPUをどのように無効にするのですか? ~/.keras/keras.jsonを変更する必要がありますか? $ tim

    3

    1答えて

    SSE4、AVX、AVX2、およびFMA命令をインストールできるテンソルフローをインストールする既存のDockerイメージを設定または変更する方法を探していますCPUの高速化に利用されています。これまでのところ、bazel How to Compile Tensorflow...とCPU instructions not compiled...を使ってソースからインストールする方法を見つけました。

    2

    1答えて

    Nvidiaグラフィカル処理ユニットでスレッド構築ブロックスレッドを実行できますか?私は私のtbbコードのために同じものの最適な番号が必要がありますし、CPUスレッドの代わりにGPUスレッドを使用する必要があります複数のスレッドをしたいですか?

    0

    1答えて

    アンドロイドがインストールされていないデバイスで実行するプロジェクトタンゴをコンパイルすることはできますか? Nvidia Jetson TX2でTangoを実行したいと思います。 NvidiaはAndroidをJetsonに移植しません。私はIntel Realsense ZR300を注文しました。これはTangoに必要な情報を提供するはずです。

    5

    2答えて

    誰でもCUDAコンテキストとは何か良い情報源を説明したり紹介したりできますか?私はCUDA開発者ガイドを検索しましたが、私はそれに満足していませんでした。 説明や助けがあれば大丈夫です。

    -1

    1答えて

    私のGPUには何か問題があります。したがって、しばらくの間、テンソルフローを実行した後、GPUの温度が高すぎるでしょう。そして、私はgpuの過熱の前に私の訓練を終えることができません。だから、私は温度を検出し、プログラムを一時停止してgpuを冷やすスクリプトを書いています。コードは(しきい値がテストのために45にsettedている)、このようなものです: for batch in batches

    0

    1答えて

    eLinuxに表示されているJetson TK1のターミナルで最大パフォーマンス(CPU)コードを使用しました。 しかし、TX1ではIO ERRORとFile no Existが出ます。 TX1はどのように最大のパフォーマンスで動作しますか?

    -1

    0答えて

    以上が、私はこのサイトからの指示に従ってください:https://github.com/NVIDIA/nvidia-docker。 ubuntu 16.04サーバーにnvidia-dockerをインストールします。コマンドを実行した後: sudo dpkg -i /tmp/nvidia-docker*.deb && rm /tmp/nvidia-docker*.deb エラーがあります: $

    1

    1答えて

    私はNvidiaカードのネイティブ算術演算のスループットを見出そうとしています。 thisページで、Nvidiaはさまざまな算術演算のスループット値を文書化しています。問題は、値がそれぞれ異なるため、私のカードが16ビット操作か32ビット操作か64ビット操作かをどうやって判断するのですか? また、私のカードのこれらの命令のレイテンシ値も計算したいと考えています。それを行うにはいくつかの方法がありま

    0

    1答えて

    Ubuntu 14.04で動作するNvidia GTX 1080があります。私はtensorflow 1.0.1を使用して畳み込みオートエンコーダーを実装しようとしていますが、プログラムはGPUをまったく使用していないようです。私はこれをwatch nvidia-smiとhtopを使って確認しました。次のようにプログラムを実行した後、出力は次のようになります。 1 I tensorflow/str