pytorch

    3

    1答えて

    いくつかのターゲットに対していくつかの入力を最小限に抑えるために、いくつかの逆方向パスの繰り返しを実行し、各ステップで入力を更新します。最初のパスが正常に実行されますが、私は2回目のパスで次のエラーを取得する: は RuntimeError: element 0 of variables tuple is volatile このコードスニペットは問題 import torch from torc

    0

    2答えて

    私は既存のネットワークに新しいレイヤーを追加し(最初のレイヤーとして)、元の入力でそれを鍛えようとしています。畳み込みレイヤーを追加すると、すべてが完全に機能しますが、私はそれを線形に変更すると訓練していないように見えます。なぜどんなアイデア?私は(ちょうどELUない)異なる活性化関数を試み class ActorCritic(torch.nn.Module): #original model

    0

    1答えて

    何か助けていただければ幸いです。 transforms.pyのコードは、変換がPIL画像にもndarrayにも適用されるべきだと述べています。 は変換を考える: data_transforms = { 'train': transforms.Compose([ transforms.Scale(256), transforms.Pad(4,0), tr

    1

    1答えて

    これは基本的な質問のように思えるかもしれませんが、私はそれを解決することができません。 私のニューラルネットワークのフォワードパスでは、8×3×3の出力テンソルがあり、8はバッチサイズです。我々は3x3テンソルの各々を非特異行列と仮定することができる。私はこれらの行列の逆行列を見つける必要があります。 PyTorch inverse()関数は、正方行列でのみ機能します。今は8x3x3なので、バッチ

    0

    1答えて

    私はPytorchでオートエンコーダーを試しています。最初の層としてnn.Linear(250 * 250,40 * 40)という比較的大きなニューラルネットワークを使用すると、Jupyterカーネルがクラッシュしているようです。私が小さい層のサイズを使用するとnn.Linear(250 * 250,20 * 20)。 JupyterカーネルはOKです。どのようにこれを修正するための任意のアイデア

    3

    1答えて

    私はOthelloの時間差学習エージェントを構築しようとしています。残りの実装は意図したとおりに実行されているように見えますが、私のネットワークを訓練するために使用される損失機能が不思議です。 Suttonの著書「強化学習:はじめに」では、平均二乗誤差(MSVE)が標準損失関数として提示されていますが、これは基本的に平均二乗誤差にonポリシー分布を掛けたものです(すべての状態(onPolicyDi

    0

    1答えて

    次のコードを実行すると、変数の型がtorch.LongTensorに変わります。代わりにどのようにtorch.cuda.LongTensorを作成することができますか? # Turn string into list of longs def char_tensor(string): tensor = torch.zeros(len(string)).long() for c

    0

    1答えて

    私は、あらかじめ訓練されたResNetモデルを使用して往路を計算しようとしています。ミニバッチの4-Dテンソルを作成するのに問題があります。誰かがそれを行う適切な方法は何か教えてくださいできますか? EDIT:コードを変更しました。現在は動作しています。しかし、私はまだこれを行うより効率的な方法があると思います。 ここに私のコードです: dataset = torchvision.datasets

    0

    1答えて

    トレーニング中に私が間違っていることを得ることができませんRNN私はシーケンス上の操作(簡単なタスクでどのように動作するかを知るために)をRNNとのために操作しようとしています。 しかし、私のネットワークは学習していませんが、損失は同じままであり、モデルに余裕をもたせることはできません。 問題を見つけるのを手伝ってもらえますか? データは、私が使用しています:NNため data = [