recurrent-neural-network

    2

    2答えて

    いくつかのレイヤーでは再帰性(例えばLSTM)、他のレイヤーでは通常の接続(FC)を持つニューラルネットワークを作りたいと思っています。 Tensorflowでこれを行う方法が見つかりません。 FCレイヤーしか持っていないのであれば動作しますが、反復レイヤーを1つだけ正しく追加する方法はわかりません。 私は、次の方法でネットワークを作成します。 with tf.variable_scope("au

    6

    1答えて

    回帰のためのおもちゃのLSTMモデルを構築したいと思います。 This素敵なチュートリアルは初級者にとってはすでに複雑すぎる。 長さがtime_stepsの配列が与えられた場合、次の値を予測します。私は次のことを得る私たちはpred = lstm_model(x, weights, biases)でLSTMモデルをインスタンス化 # Network Parameters time_steps =

    0

    1答えて

    テンソルフローでLSTMセルベースのRNNを実装しようとしています。私は、フィーチャを構成する各行に一連の単語を持ち、ターゲットとなるlabels(1または0のいずれか)という名前の列を持っています。私はdynamic_RNNの出力を解釈することに困難を抱えています。 dynamic_RNNは出力と状態を返します。 私はデータを256のバッチに分割しました。 の各行を一様な長さ160にパッディング

    2

    1答えて

    TFでLSTMを単独で使用する方法の例がたくさんありますが、CNN + LSTMを共同でトレーニングする良い例は見つかりませんでした。 このような訓練を行う方法は非常に簡単ではない、と私はここにいくつかのオプションを考えることができ、私が見たものから: まず、私は最も簡単な解決策(または最も原始的なもの)になると信じてこれらの機能をnumpyで抽出して保存してから、TFのLSTMにフィードする必要

    0

    1答えて

    LSTMを使用してパラメータを追跡するTensorflow NN(時系列データ回帰の問題)に取り組んでいます。トレーニングデータのバッチには、の連続したのバッチサイズが含まれています。私は次のサンプルへの入力としてLSTM状態を使用したいと思います。したがって、私がデータ観測のバッチを持っていれば、第1の観測の状態を第2の観測への入力としてフィードしたいと思います。以下では、lstmの状態をsiz

    0

    1答えて

    Tensorflow 1.0.0とPython 3.5を使用しています。 私がしようとすると: cell = tf.nn.rnn_cell.BasicRNNCell(state_size) 私は次のエラーを取得: はAttributeError <ipython-input-25-41a20d8458a7> in <module>() 1 # Forward pass

    16

    2答えて

    さまざまな時間長のシーケンスを使用してKerasにRNNを適合させようとしています。私のデータはフォーマット(sample, time, feature) = (20631, max_time, 24)のNumpyアレイにあり、実行時に最も多くのタイムスタンプを持つサンプルに利用できるタイムステップの数として、max_timeが決定されます。私は、明らかに、最も長いものを除いて、各タイムシリーズの

    1

    1答えて

    私はBasicRNNでRNNを構築しましたが、今はLSTMCellを使用したいのですが、その通過は簡単ではないようです。私は何を変えるべきですか? まず私は、すべてのプレースホルダと変数を定義します。 X_placeholder = tf.placeholder(tf.float32, [batch_size, truncated_backprop_length, embedding_size])

    2

    1答えて

    多階層のLSTMモデル(stateIsTuple = True)をPythonでビルドしてトレーニングし、C++でロードして使用したいと考えています。しかし、主に私が参照できる文字列名を持っていないため、C++で状態をフィードしフェッチする方法を考えるのは難しいです。 など。 with tf.name_scope('rnn_input_state'): self.initial_sta

    2

    0答えて

    私はaws ec2を使用して、マルチラベル分類タスクのモデルを訓練しています。トレーニングの後、同じマシンでモデルをテストしたところ、良い結果が得られました(精度90%以上)。しかし、保存したモデルをローカルマシン(GPUなし)にインポートした後、結果は異なります(精度は5%未満です)。これがなぜ起こっているのかに関する提案はありますか?ありがとう。 TL; DR:CPUにGPU機械からを移したと