pytorch

    1

    1答えて

    DataParallelとDistributedDataParallelを使用しないように、コードを少し変更しました。コードは以下の通りである: import argparse import os import shutil import time import torch import torch.nn as nn import torch.nn.parallel import

    1

    2答えて

    でインストールPytorch: C:\Users>conda install pytorch torchvision -c soumith Fetching package metadata ............. PackageNotFoundError: Package missing in current win-64 channels: - pytorch 私はPy

    1

    2答えて

    訓練されたPyTorchモデルの私の推論コードで何が問題なのですか? ランタイムエラーメッセージがあります: "予想されるCPUテンソル(CUDAテンソルを得た)" import torch import torch.nn as nn #from __future__ import print_function import argparse from PIL import Image

    2

    2答えて

    pytorchモデルの場合、画像を分類する方法を説明するthis tutorialが見つかりました。私は、開始モデルに同じ手順を適用しようとしました。 :私はこれを取得、出力として # some people need these three lines to make it work #from torchvision.models.inception import model_urls #

    -1

    3答えて

    NumpyでTensorflowまたはPyTorchの分散および収集操作を実装したいと考えています。私はしばらく頭を掻いてきました。すべてのポインタは大いに感謝しています! PyTorch Scatter PyTorch Gather

    2

    1答えて

    テンソル(勾配ではない)値をある範囲にクリップしたいと思います。 theanoに関数theano.tensor.clip()があるように、pytorchに関数がありますか?

    0

    1答えて

    これまで私はケラス+ tfでMLP、RNN、CNNを書いていましたが、今度はpytorchが深い学習コミュニティの中で人気を博しているので、このフレームワークも学び始めました。私は、シンプルなモデルを非常に速く作ることができるケラの連続モデルの最大のファンです。私はまた、Pytorchがこの機能を持っているのを見たが、コード方法を知らない。私はこの方法を試しました import torch im

    3

    1答えて

    トレーニングをスピードアップするためにニューラルネットワークモデルを「並列化」しようとしています。私が持っていた1つのアイデアは、2台のコンピュータで2つのモデルを実行し、その結果を何とか組み合わせることでした。 これは可能ですか?そうでない場合、2台のコンピュータでモデルトレーニングを並列化するためのオプションは何ですか? 私はニューラルネットワークフレームワークを使用しています。

    0

    1答えて

    私は、訓練されたRESNET18モデルをパイロットで訓練し、保存しました。モデルのテストでは、異なるミニバッチサイズに対して異なる精度が与えられます。なぜ誰が知っていますか?

    1

    1答えて

    私は数百万行の自家製データセットを持っています。私は切り捨てられたコピーを作ろうとしています。だから、元のデータセットを作成して新しいデータセットを作成するために使用しているテンソルをクリップします。しかし、20K行だけである新しいデータセットを保存すると、元のデータセットと同じサイズになります。さもなければ、私がチェックすると、新しいテンソルのサイズを含めて、すべてがより正直なように見えます。私