lstm

    7

    1答えて

    MXNet(Rパッケージ)経由のLSTMの例はどこにありますか?基本的なタスクは、x [1 ... t]シーケンスによるx [t + 1]値の予測です。

    3

    1答えて

    リカレントニューラルネットワーク(LSTM)を訓練し、重みとメタグラフを保存しました。予測のためにメタグラフを取得すると、シーケンスの長さがトレーニング中のものと同じであれば、すべてが完全に機能します。 LSTMの利点の1つは、入力のシーケンス長が変わる可能性があることです(たとえば、入力が文章を構成する文字である場合、文章の長さは異なる場合があります)。 メタグラフからグラフを取得するときに、入

    1

    1答えて

    LSTMを使用してRNNを作成しようとしています。 LSTMモデルを作ったあと、2つの回帰出力層と1つの回帰出力層があります。 私は自分のデータを訓練し、最終的な訓練の損失は約0.009になります。 しかし、モデルをテストデータに適用すると、損失は約0.5になります。 第1回訓練の損失は約0.5です。 訓練された変数はテストモデルでは使用されないと思います。 トレーニングとテストモデルの唯一の違い

    2

    1答えて

    今後の購入を予測するためにKerasを使用するLSTMリカレントニューラルネットを使用しようとしています。私の入力変数は、過去5日間の購入の時間枠とダミー変数としてコード化されたカテゴリ変数A, B, ...,Iです。私の入力データは次のようになります: >>> dataframe.head() day price A B C D E F G H I TS_bigHolidays

    4

    1答えて

    kerasを使用して言語モデルを作成しています。 基本的に、私の語彙サイズNは〜30.000です。私はすでにword2vecを訓練していますので、埋め込みとそれに続くLSTMを使って、次に完全に接続された層とsoftmaxの次の単語を予測します。私は2つの質問持って EMBEDDING_DIM = 256 embedding_layer = Embedding(N,EMBEDDING_DIM,w

    2

    2答えて

    モデルには、最初のレイヤーとしてLSTMがあります。 model.predictを呼び出すあなたはいくつかのサンプルを渡し言う: >sam = np.array([ [[.5, .6, .3]], [[.6, .6, .3]], [[.5, .6, .3]] ]) >model.predict(sam) array([[ 0.23589483], [ 0.2327884 ],

    2

    1答えて

    wildmlの"RNNs in TensorFlow, a Practical Guide and Undocumented Features"投稿をフォローしていて、tf.train.batch()機能の出力を見ることができません。次のように格納するためのコード、ローディング及び入力処理である:ポストに基づい sequences = [[1, 2, 3], [4, 5, 1], [1, 2]]

    2

    1答えて

    私は、テンソルフローのGRUユニット(LSTMユニットでもよい)を備えた多層リカレントニューラルネットワークを作成しようとしています。私は公式のチュートリアルを含む複数のソースを見てきました。しかし、私は多層RNN(GRUユニットでここに示されている)のために次のパターンを見ています。 cell = GRUCell(num_neurons) # Or LSTMCell(num_neurons)

    1

    1答えて

    私は現在テンソルフローを研究中です。私はちょうどCNN、RNN ans LSTMのような単純なコードを作った。そして今、私は畳み込みlstmを実装したいと思います。私はthis paperと読んで、練習として実装しようとしました。しかし、私が検索した限り、インターネットで利用できるコードはありませんでした。利用可能なソースコードがどこにあるかを知っている人は、私に知らせてください。