tensor

    0

    2答えて

    私は手書き認識のための私のカスタムイメージデータにautoencoderを実装しました。今、私はnumpy配列に出力レイヤのテンソルオブジェクトを保存したいと思います。 Session.run(テンソル)とtensor.eval()を試しました。ここに私のコードです。 #define model x= tf.placeholder(tf.float32,[None,784]) y_=tf.pl

    1

    1答えて

    私は.csvデータセット(5008列、533行)でモデルをトレーニングしようとしています。 私は[ラベル] 2個のテンソル、[例]と、正しいラベルを保持している1に訓練するためにデータを保持する1にデータを解析したTextReaderを使用しています:何かを実行するとき def read_my_file_format(filename_queue): reader = tf.TextLi

    2

    1答えて

    私はTensorflowにRNNを実装しようとしています。私は自分自身の関数を書く代わりに練習するRNNの細胞を使用しています。 問題は配列タグであり、入力サイズは48時間ステップであり、900はワンホットエンコードされたベクトルである単語のサイズであり、32は、バッチサイズである[32、48、900]です。出力は、最初の2つの次元は入力と同じであるが、最後の次元は、出力語彙サイズ(ワンホット)で

    -1

    1答えて

    によって10個の数字から2次元の出力がt matから各 mat[i]はうち t[i] にcorrspondingされる予測である予測しますコース私はマットとtで5列以上を持っていますが、今問題を単純化しています。 私は以下のようなコードを書いています。 #There is target data `t` and traindata `mat[0]`,`mat[1]`,`mat[2]`....

    1

    2答えて

    のおかげで、私はtensorflowで作業ステップ関数を構築することができます。 (以下のコードを参照してください) 今、私の質問はkerasで動作するようにtensorflowで作成し、このtf_stepy活性化機能を利用するにはどのよう に進化しますか? Iはkerasでtf_stepyを利用するために、次のコードを試みたが、動作していない:以下 from tensorflow_step_fu

    0

    1答えて

    theano.tensor.ivector変数を作成し、その値を指定したいと考えています。インターネット上のほとんどのコード例では、v = T.ivector()が見つかりました。これはテンソル変数を作成しますが、その値は指定しません。 私はこれを試してみました: import theano.tensor as T val = [1,5] v = T.ivector(value=val, na

    0

    1答えて

    Iは、等しい長さのベクトル(TFテンソル)を作成するforループ、 a1 = [0, 2, 4 ... ] a2 = [1, 4, 6 ... ] ... 言う有し、私はマトリックス中にこれらのベクターを連結します、 0番目の軸 matrix = [[0,2,4...] , [1,4,6...] ... ] 私は、forループの内部 matrix = tf.concat(0, [mat

    0

    1答えて

    としてテンソルを使用します。 def _backwards_cumsum(x, length, batch_size): upper_triangular_ones = np.float32(np.triu(np.ones((length, length)))) repeated_tri = np.float32(np.kron(np.eye(batch_size), upper_trian