torch

    1

    1答えて

    トーチ7を使用してAWS GPUインスタンスの1つで作業しています。 次のコードは、リニアモデルの単純なフォワードパスをベンチマークします。 GPUの実行は約4倍遅くなっているようです。私は間違って何をしていますか? require 'torch'; require 'nn'; cmd = torch.CmdLine() cmd:option("-gpu", 0) -- gpu/cpu

    1

    2答えて

    私はflatten任意の一般n-次元torch.Tensorに計算して最適化されています。 (ここで「平坦化」することで、Iは、与えられたベクトルと同じ数の要素を持つ一次元テンソルに与えられたテンソルの変換を意味する。)私はこれを行うには、現在、以下の手順を使用しています: local original_tensor = -- output of some intermediate layer o

    3

    1答えて

    itorchノートブックで、コード付きのセルの出力を消去する方法はありますか? 私がしたいのは、ローディングバーのように進捗状況を動的に表示することです。 これは、多くの計算が必要なときに、進捗がどれだけ進んだのか、それが凍っているかどうかをトラッキングするためです。 基本的に、私はパーセンテージ形式で繰り返し回数を出力し、次の繰り返しで上書きしたいと思います。 アイデア?

    3

    1答えて

    私はPythonで行列を構築しました。データ型のnumpy配列は(249,230)です。ここではすべてがうまくいくようです。 私はいくつかの簡単なコードでHDF5ファイルに書き込む:今、私はトーチの私のニューラルネットワークの入力として、このデータが必要 f = h5py.File("instructions.hdf5", "w") f.create_dataset('/instructions

    2

    1答えて

    をファイルにテキストを書き込みます作成されましたが、テキストエディタで開くと、テキストの前にいくつかのヌル記号が表示されます。 他の方法がありますか?

    0

    1答えて

    fbcunnでnn.HSM階層softmaxモジュールを使用する簡単な例が気に入っています。 ドキュメントは存在しません(see here)。私はthis user group postを見つけましたが、どのようなクラスタ "マッピング"のように見えるべきであり、いくつかのテストがモジュールとそれに対応する基準のために存在しますが、どれもモジュールを "通常の"方法で使用していません。シンプルなフ

    0

    1答えて

    訓練されたVGGでトーチを使用して私のシステムに既存の画像を渡す方法はありますか?私はUbuntu 14.04を使用していますが、残念ながらGPUを持っていません。私は非常に広範囲に検索しましたが、私が見つけたすべてのものはGPUが必要です。トーチなしでVGGを使用する他の方法はありますか?私は提案を公開していますが、このメソッドはGPUを必要とすべきではありません。

    0

    1答えて

    私は完全畳み込みネットワークを使用しています。私の画像サイズは512x512です。ここに私のデータセット形成コードがあります。以下 unet = nn.Sequential() -- ndim=input:size(2) ndim=512 unet:add(nn.SpatialReflectionPadding(1+ndim/2,1+ndim/2,1+ndim/2,1+ndim/2)) --

    2

    1答えて

    質問はtorch5チュートリアルからです: /Users/frankhe/torch/install/bin/luajit: test1.lua:39: attempt to index field '__parent' (a nil value) :このスクリプトを実行した後 http://torch5.sourceforge.net/manual/torch/index-8-1.html

    2

    1答えて

    私は、アレイにアクセスするには xTrain = torch.linspace(-1,1,nData) として初期化したサイズのxTainnDatax1 という名前の配列を持って、著者はxTrain[{{i}}] を使用していますあなたはこれを説明してくださいすることができます表記法?単にxTrain[i]ではないのはなぜですか? 私はなぜそれがまた、第三に[torch.DoubleTenso